MCP Ollama Server

by emgeee
Verified

local-only server

The server can only run on the client’s local machine because it depends on local resources.

Integrations

  • Allows integration with Ollama, enabling use of Ollama models through the MCP interface. Provides capabilities to list models, get model details, and ask questions to Ollama models.

MCP オラマ

Ollama を Claude Desktop またはその他の MCP クライアントと統合するためのモデル コンテキスト プロトコル (MCP) サーバー。

要件

  • Python 3.10以上
  • Ollama がインストールされ、実行中 ( https://ollama.com/download )
  • 少なくとも1つのモデルがOllamaでプルされました(例: ollama pull llama2

Claudeデスクトップの設定

Claude デスクトップ構成に追加します (macOS の場合は~/Library/Application Support/Claude/claude_desktop_config.json 、Windows の場合は%APPDATA%\Claude\claude_desktop_config.json )。

{ "mcpServers": { "ollama": { "command": "uvx", "args": [ "mcp-ollama" ] } } }

発達

開発モードでインストールします:

git clone https://github.com/yourusername/mcp-ollama.git cd mcp-ollama uv sync

MCP Inspector でテストします。

mcp dev src/mcp_ollama/server.py

特徴

サーバーは 4 つの主なツールを提供します。

  • list_models - ダウンロードしたすべての Ollama モデルを一覧表示します
  • show_model - 特定のモデルに関する詳細情報を取得します
  • ask_model - 指定されたモデルに質問する

ライセンス

マサチューセッツ工科大学

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

MCP Ollama サーバーは、Ollama モデルを MCP クライアントと統合し、ユーザーがモデルを一覧表示したり、詳細情報を取得したり、質問を通じてモデルと対話したりできるようにします。

  1. Requirements
    1. Configure Claude Desktop
    2. Development
  2. Features
    1. License
      ID: h0t3210s62