Skip to main content
Glama
emgeee

MCP Ollama Server

MCP オラマ

Ollama を Claude Desktop またはその他の MCP クライアントと統合するためのモデル コンテキスト プロトコル (MCP) サーバー。

要件

  • Python 3.10以上

  • Ollama がインストールされ、実行中 ( https://ollama.com/download )

  • 少なくとも1つのモデルがOllamaでプルされました(例: ollama pull llama2

Claudeデスクトップの設定

Claude デスクトップ構成に追加します (macOS の場合は~/Library/Application Support/Claude/claude_desktop_config.json 、Windows の場合は%APPDATA%\Claude\claude_desktop_config.json )。

{
  "mcpServers": {
    "ollama": {
      "command": "uvx",
      "args": [
        "mcp-ollama"
      ]
    }
  }
}

発達

開発モードでインストールします:

git clone https://github.com/yourusername/mcp-ollama.git
cd mcp-ollama
uv sync

MCP Inspector でテストします。

mcp dev src/mcp_ollama/server.py

Related MCP server: Ollama MCP Server

特徴

サーバーは 4 つの主なツールを提供します。

  • list_models - ダウンロードしたすべての Ollama モデルを一覧表示します

  • show_model - 特定のモデルに関する詳細情報を取得します

  • ask_model - 指定されたモデルに質問する

ライセンス

マサチューセッツ工科大学

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/emgeee/mcp-ollama'

If you have feedback or need assistance with the MCP directory API, please join our Discord server