local-only server
The server can only run on the client’s local machine because it depends on local resources.
Integrations
Allows integration with Ollama, enabling use of Ollama models through the MCP interface. Provides capabilities to list models, get model details, and ask questions to Ollama models.
MCP オラマ
Ollama を Claude Desktop またはその他の MCP クライアントと統合するためのモデル コンテキスト プロトコル (MCP) サーバー。
要件
- Python 3.10以上
- Ollama がインストールされ、実行中 ( https://ollama.com/download )
- 少なくとも1つのモデルがOllamaでプルされました(例:
ollama pull llama2
)
Claudeデスクトップの設定
Claude デスクトップ構成に追加します (macOS の場合は~/Library/Application Support/Claude/claude_desktop_config.json
、Windows の場合は%APPDATA%\Claude\claude_desktop_config.json
)。
Copy
発達
開発モードでインストールします:
Copy
MCP Inspector でテストします。
Copy
特徴
サーバーは 4 つの主なツールを提供します。
list_models
- ダウンロードしたすべての Ollama モデルを一覧表示しますshow_model
- 特定のモデルに関する詳細情報を取得しますask_model
- 指定されたモデルに質問する
ライセンス
マサチューセッツ工科大学
You must be authenticated.
MCP Ollama サーバーは、Ollama モデルを MCP クライアントと統合し、ユーザーがモデルを一覧表示したり、詳細情報を取得したり、質問を通じてモデルと対話したりできるようにします。