Skip to main content
Glama

Ollama MCP Server

Ollama MCP サーバー

Ollama のローカル LLM モデルと Claude Desktop などの MCP 互換アプリケーションとのシームレスな統合を可能にする、Ollama 用の MCP (モデル コンテキスト プロトコル) サーバー。

特徴

  • 利用可能なOllamaモデルの一覧
  • Ollamaから新しいモデルを取得する
  • Ollama のチャット API を使用してモデルとチャットする
  • 詳細なモデル情報を取得する
  • 自動ポート管理
  • 環境変数の設定

前提条件

  • Node.js (v16 以上)
  • npm
  • Ollama をローカルにインストールして実行

インストール

手動インストール

npm 経由でグローバルにインストールします。

npm install -g @rawveg/ollama-mcp

他のMCPアプリケーションへのインストール

Ollama MCP サーバーを他の MCP 互換アプリケーション (Cline や Claude Desktop など) にインストールするには、アプリケーションの MCP 設定ファイルに次の構成を追加します。

{ "mcpServers": { "@rawveg/ollama-mcp": { "command": "npx", "args": [ "-y", "@rawveg/ollama-mcp" ] } } }

設定ファイルの場所はアプリケーションによって異なります。

  • Claude デスクトップ: Claude アプリ データ ディレクトリ内のclaude_desktop_config.json
  • Cline: VS Code グローバル ストレージ内のcline_mcp_settings.json

使用法

サーバーの起動

単に実行します:

ollama-mcp

サーバーはデフォルトでポート3456で起動します。PORT環境変数を使用して別のポートを指定することもできます。

PORT=3457 ollama-mcp

環境変数

  • PORT : サーバーポート(デフォルト: 3456)。直接実行時に使用できます。
    # When running directly PORT=3457 ollama-mcp
  • OLLAMA_API : Ollama APIエンドポイント(デフォルト: http://localhost:11434

APIエンドポイント

  • GET /models - 利用可能なモデルを一覧表示する
  • POST /models/pull - 新しいモデルをプルする
  • POST /chat - モデルとチャットする
  • GET /models/:name - モデルの詳細を取得する

発達

  1. リポジトリをクローンします。
git clone https://github.com/rawveg/ollama-mcp.git cd ollama-mcp
  1. 依存関係をインストールします:
npm install
  1. プロジェクトをビルドします。
npm run build
  1. サーバーを起動します。
npm start

貢献

貢献を歓迎します!お気軽にプルリクエストを送信してください。

ただし、これは事前の協議と合意なしに、このプロジェクトをサードパーティのサービスや商用プラットフォームに組み込むことを許可するものではありません。以前は、 Smitheryなどのサービスとの統合をサポートするための貢献(Dockerfileや関連するREADMEの更新など)を受け入れていましたが、同様のサービスであるGlamaの最近の行動により、このポリシーの見直しが必要になりました。

Glamaは、事前の通知や同意なしにオープンソースのMCPプロジェクトを商用サービスに含めることを決定し、その後、メンテナーに対し、自社プラットフォームとの互換性を確保するための無償作業を求めるIssueリクエストを作成しました。対話や報酬なしにコミュニティの労働力を利益のために利用するというこの行為は、配慮に欠けるだけでなく、倫理的にも問題があります。

その結果、本プロジェクトとその貢献者の完全性を守るため、ライセンスはGNU Affero General Public License v3.0 (AGPL-3.0)に更新されました。この変更により、特に商用またはサービスベースのプラットフォームにおけるソフトウェアの使用は、AGPLの条項に完全に準拠し**別途商用ライセンスを取得する必要があることが保証されます。プロジェクトが積極的に収益化され**ている場合、元のソースへのリンクを貼るだけでは不十分です。本プロジェクトを商用提供に含めたい場合は、事前にご連絡いただき、ライセンス条件についてご相談ください。

ライセンス

AGPL v3.0

関連している

このプロジェクトは以前はMITライセンスでした。2025年4月20日以降、無許可の商用利用を防ぐため、AGPL-3.0ライセンスに変更されました。この変更以前にこのプロジェクトをご利用の場合は、該当するライセンスについては、関連するGitタグまたはコミットを参照してください。

-
security - not tested
A
license - permissive license
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

Ollama のローカル LLM モデルと MCP 互換アプリケーション間のシームレスな統合を可能にし、モデル管理とチャット インタラクションをサポートします。

  1. 特徴
    1. 前提条件
      1. インストール
        1. 手動インストール
        2. 他のMCPアプリケーションへのインストール
      2. 使用法
        1. サーバーの起動
        2. 環境変数
        3. APIエンドポイント
      3. 発達
        1. 貢献
          1. ライセンス
            1. 関連している

              Related MCP Servers

              • -
                security
                F
                license
                -
                quality
                An interactive chat interface that combines Ollama's LLM capabilities with PostgreSQL database access through the Model Context Protocol (MCP). Ask questions about your data in natural language and get AI-powered responses backed by real SQL queries.
                Last updated -
                28
                TypeScript
              • A
                security
                A
                license
                A
                quality
                MCP Ollama server integrates Ollama models with MCP clients, allowing users to list models, get detailed information, and interact with them through questions.
                Last updated -
                3
                12
                Python
                MIT License
                • Apple
              • A
                security
                F
                license
                A
                quality
                A bridge that enables seamless integration of Ollama's local LLM capabilities into MCP-powered applications, allowing users to manage and run AI models locally with full API coverage.
                Last updated -
                10
                33
                JavaScript
                • Apple
              • -
                security
                F
                license
                -
                quality
                A generic Model Context Protocol framework for building AI-powered applications that provides standardized ways to create MCP servers and clients for integrating LLMs with support for Ollama and Supabase.
                Last updated -
                TypeScript

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/rawveg/ollama-mcp'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server