local-only server
The server can only run on the client’s local machine because it depends on local resources.
Integrations
Allows integration with Ollama, enabling use of Ollama models through the MCP interface. Provides capabilities to list models, get model details, and ask questions to Ollama models.
MCP 올라마
Ollama를 Claude Desktop이나 다른 MCP 클라이언트와 통합하기 위한 MCP(Model Context Protocol) 서버입니다.
요구 사항
- Python 3.10 이상
- Ollama 설치 및 실행 중( https://ollama.com/download )
- Ollama로 끌어온 모델이 최소 하나 이상 있음(예:
ollama pull llama2
)
Claude Desktop 구성
Claude Desktop 구성에 다음을 추가합니다(macOS에서는 ~/Library/Application Support/Claude/claude_desktop_config.json
, Windows에서는 %APPDATA%\Claude\claude_desktop_config.json
):
지엑스피1
개발
개발 모드로 설치:
Copy
MCP Inspector로 테스트:
Copy
특징
서버는 4가지 주요 도구를 제공합니다.
list_models
- 다운로드된 모든 Ollama 모델 나열show_model
- 특정 모델에 대한 자세한 정보를 가져옵니다.ask_model
- 지정된 모델에 질문하기
특허
MIT
You must be authenticated.
MCP Ollama 서버는 Ollama 모델을 MCP 클라이언트와 통합하여 사용자가 모델을 나열하고, 자세한 정보를 얻고, 질문을 통해 사용자와 상호 작용할 수 있도록 합니다.