MCP オラマ
Ollama を Claude Desktop またはその他の MCP クライアントと統合するためのモデル コンテキスト プロトコル (MCP) サーバー。
要件
Python 3.10以上
Ollama がインストールされ、実行中 ( https://ollama.com/download )
少なくとも1つのモデルがOllamaでプルされました(例:
ollama pull llama2)
Claudeデスクトップの設定
Claude デスクトップ構成に追加します (macOS の場合は~/Library/Application Support/Claude/claude_desktop_config.json 、Windows の場合は%APPDATA%\Claude\claude_desktop_config.json )。
{
"mcpServers": {
"ollama": {
"command": "uvx",
"args": [
"mcp-ollama"
]
}
}
}
発達
開発モードでインストールします:
git clone https://github.com/yourusername/mcp-ollama.git
cd mcp-ollama
uv sync
MCP Inspector でテストします。
mcp dev src/mcp_ollama/server.py
Related MCP server: Ollama MCP Server
特徴
サーバーは 4 つの主なツールを提供します。
list_models- ダウンロードしたすべての Ollama モデルを一覧表示しますshow_model- 特定のモデルに関する詳細情報を取得しますask_model- 指定されたモデルに質問する
ライセンス
マサチューセッツ工科大学