Skip to main content
Glama

MCP Ollama Server

MCP オラマ

Ollama を Claude Desktop またはその他の MCP クライアントと統合するためのモデル コンテキスト プロトコル (MCP) サーバー。

要件

  • Python 3.10以上
  • Ollama がインストールされ、実行中 ( https://ollama.com/download )
  • 少なくとも1つのモデルがOllamaでプルされました(例: ollama pull llama2

Claudeデスクトップの設定

Claude デスクトップ構成に追加します (macOS の場合は~/Library/Application Support/Claude/claude_desktop_config.json 、Windows の場合は%APPDATA%\Claude\claude_desktop_config.json )。

{ "mcpServers": { "ollama": { "command": "uvx", "args": [ "mcp-ollama" ] } } }

発達

開発モードでインストールします:

git clone https://github.com/yourusername/mcp-ollama.git cd mcp-ollama uv sync

MCP Inspector でテストします。

mcp dev src/mcp_ollama/server.py

特徴

サーバーは 4 つの主なツールを提供します。

  • list_models - ダウンロードしたすべての Ollama モデルを一覧表示します
  • show_model - 特定のモデルに関する詳細情報を取得します
  • ask_model - 指定されたモデルに質問する

ライセンス

マサチューセッツ工科大学

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

local-only server

The server can only run on the client's local machine because it depends on local resources.

MCP Ollama サーバーは、Ollama モデルを MCP クライアントと統合し、ユーザーがモデルを一覧表示したり、詳細情報を取得したり、質問を通じてモデルと対話したりできるようにします。

  1. 要件
    1. Claudeデスクトップの設定
    2. 発達
  2. 特徴
    1. ライセンス

      Related MCP Servers

      • -
        security
        A
        license
        -
        quality
        A Model Context Protocol (MCP) server that lets you seamlessly use OpenAI's models right from Claude.
        Last updated -
        1
        24
        28
        JavaScript
        MIT License
        • Apple
      • -
        security
        A
        license
        -
        quality
        A simple MCP server for interacting with OpenAI assistants. This server allows other tools (like Claude Desktop) to create and interact with OpenAI assistants through the Model Context Protocol.
        Last updated -
        26
        Python
        MIT License
        • Apple
      • -
        security
        F
        license
        -
        quality
        An interactive chat interface that combines Ollama's LLM capabilities with PostgreSQL database access through the Model Context Protocol (MCP). Ask questions about your data in natural language and get AI-powered responses backed by real SQL queries.
        Last updated -
        28
        TypeScript
      • -
        security
        A
        license
        -
        quality
        Enables seamless integration between Ollama's local LLM models and MCP-compatible applications, supporting model management and chat interactions.
        Last updated -
        165
        47
        TypeScript
        AGPL 3.0

      View all related MCP servers

      MCP directory API

      We provide all the information about MCP servers via our MCP API.

      curl -X GET 'https://glama.ai/api/mcp/v1/servers/emgeee/mcp-ollama'

      If you have feedback or need assistance with the MCP directory API, please join our Discord server