local-only server
The server can only run on the client’s local machine because it depends on local resources.
Integrations
Provides complete integration with Ollama, allowing users to pull, push, list, create, copy, and run local LLM models. Includes model management, execution of models with customizable prompts, and an OpenAI-compatible chat completion API.
Offers an OpenAI-compatible chat completion API that serves as a drop-in replacement, enabling the use of local Ollama models with the familiar OpenAI chat interface and message structure.
Ollama MCP 서버
🚀 Ollama와 Model Context Protocol(MCP) 간의 강력한 브리지로, Ollama의 로컬 LLM 기능을 MCP 기반 애플리케이션에 원활하게 통합할 수 있습니다.
🌟 특징
Ollama 통합 완료
- 전체 API 적용 범위 : 깔끔한 MCP 인터페이스를 통해 모든 필수 Ollama 기능에 액세스하세요
- OpenAI 호환 채팅 : OpenAI 채팅 완료 API를 대체하는 드롭인 솔루션
- 로컬 LLM Power : 완전한 제어와 개인 정보 보호를 통해 로컬에서 AI 모델을 실행합니다.
핵심 역량
- 🔄 모델 관리
- 레지스트리에서 모델 가져오기
- 모델을 레지스트리로 푸시
- 사용 가능한 모델 목록
- Modelfiles에서 사용자 정의 모델 만들기
- 모델 복사 및 제거
- 🤖 모델 실행
- 사용자 정의 가능한 프롬프트로 모델 실행
- 시스템/사용자/보조자 역할을 갖춘 채팅 완료 API
- 구성 가능한 매개변수(온도, 시간 초과)
- 직접 응답을 위한 원시 모드 지원
- 🛠 서버 제어
- Ollama 서버 시작 및 관리
- 자세한 모델 정보 보기
- 오류 처리 및 시간 초과 관리
🚀 시작하기
필수 조건
- 시스템에 Ollama가 설치되었습니다
- Node.js와 npm/pnpm
설치
- 종속성 설치:
지엑스피1
- 서버를 빌드하세요:
구성
MCP 구성에 서버를 추가합니다.
Claude Desktop의 경우:
MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
Windows: %APPDATA%/Claude/claude_desktop_config.json
🛠 사용 예시
모델 끌어오기 및 실행
채팅 완성(OpenAI 호환)
사용자 정의 모델 생성
🔧 고급 구성
OLLAMA_HOST
: 사용자 정의 Ollama API 엔드포인트 구성(기본값: http://127.0.0.1:11434 )- 모델 실행에 대한 시간 초과 설정(기본값: 60초)
- 반응 무작위성을 위한 온도 제어(0-2 범위)
🤝 기여하기
여러분의 참여를 환영합니다! 자유롭게 참여해 주세요:
- 버그 신고
- 새로운 기능 제안
- 풀 리퀘스트 제출
📝 라이센스
MIT 라이센스 - 여러분의 프로젝트에 자유롭게 사용하세요!
MCP 생태계를 위해 ❤️로 구축되었습니다
You must be authenticated.
Ollama의 로컬 LLM 기능을 MCP 기반 애플리케이션에 원활하게 통합할 수 있는 브리지를 통해 사용자는 전체 API 적용 범위를 통해 로컬에서 AI 모델을 관리하고 실행할 수 있습니다.