MCP 奥拉马
用于将 Ollama 与 Claude Desktop 或其他 MCP 客户端集成的模型上下文协议 (MCP) 服务器。
要求
Python 3.10 或更高版本
Ollama 已安装并正在运行( https://ollama.com/download )
至少一个模型使用 Ollama 拉取(例如,
ollama pull llama2)
配置 Claude 桌面
添加到您的 Claude Desktop 配置(在 macOS 上为~/Library/Application Support/Claude/claude_desktop_config.json ,在 Windows 上%APPDATA%\Claude\claude_desktop_config.json ):
{
"mcpServers": {
"ollama": {
"command": "uvx",
"args": [
"mcp-ollama"
]
}
}
}
发展
以开发模式安装:
git clone https://github.com/yourusername/mcp-ollama.git
cd mcp-ollama
uv sync
使用 MCP Inspector 进行测试:
mcp dev src/mcp_ollama/server.py
Related MCP server: Ollama MCP Server
特征
该服务器提供四个主要工具:
list_models- 列出所有下载的 Ollama 模型show_model- 获取有关特定模型的详细信息ask_model- 向指定模型提问
执照
麻省理工学院