local-only server
The server can only run on the client’s local machine because it depends on local resources.
Integrations
Allows integration with Ollama, enabling use of Ollama models through the MCP interface. Provides capabilities to list models, get model details, and ask questions to Ollama models.
MCP 奥拉马
用于将 Ollama 与 Claude Desktop 或其他 MCP 客户端集成的模型上下文协议 (MCP) 服务器。
要求
- Python 3.10 或更高版本
- Ollama 已安装并正在运行( https://ollama.com/download )
- 至少一个模型使用 Ollama 拉取(例如,
ollama pull llama2
)
配置 Claude 桌面
添加到您的 Claude Desktop 配置(在 macOS 上为~/Library/Application Support/Claude/claude_desktop_config.json
,在 Windows 上%APPDATA%\Claude\claude_desktop_config.json
):
Copy
发展
以开发模式安装:
Copy
使用 MCP Inspector 进行测试:
Copy
特征
该服务器提供四个主要工具:
list_models
- 列出所有下载的 Ollama 模型show_model
- 获取有关特定模型的详细信息ask_model
- 向指定模型提问
执照
麻省理工学院
You must be authenticated.
MCP Ollama 服务器将 Ollama 模型与 MCP 客户端集成,允许用户列出模型、获取详细信息并通过问题与模型进行交互。