Skip to main content
Glama

Ollama MCP サーバー

Ollama のローカル LLM モデルと Claude Desktop などの MCP 互換アプリケーションとのシームレスな統合を可能にする、Ollama 用の MCP (モデル コンテキスト プロトコル) サーバー。

特徴

  • 利用可能なOllamaモデルの一覧

  • Ollamaから新しいモデルを取得する

  • Ollama のチャット API を使用してモデルとチャットする

  • 詳細なモデル情報を取得する

  • 自動ポート管理

  • 環境変数の設定

Related MCP server: MCP Ollama Server

前提条件

  • Node.js (v16 以上)

  • npm

  • Ollama をローカルにインストールして実行

インストール

手動インストール

npm 経由でグローバルにインストールします。

npm install -g @rawveg/ollama-mcp

他のMCPアプリケーションへのインストール

Ollama MCP サーバーを他の MCP 互換アプリケーション (Cline や Claude Desktop など) にインストールするには、アプリケーションの MCP 設定ファイルに次の構成を追加します。

{ "mcpServers": { "@rawveg/ollama-mcp": { "command": "npx", "args": [ "-y", "@rawveg/ollama-mcp" ] } } }

設定ファイルの場所はアプリケーションによって異なります。

  • Claude デスクトップ: Claude アプリ データ ディレクトリ内のclaude_desktop_config.json

  • Cline: VS Code グローバル ストレージ内のcline_mcp_settings.json

使用法

サーバーの起動

単に実行します:

ollama-mcp

サーバーはデフォルトでポート3456で起動します。PORT環境変数を使用して別のポートを指定することもできます。

PORT=3457 ollama-mcp

環境変数

  • PORT : サーバーポート(デフォルト: 3456)。直接実行時に使用できます。

    # When running directly PORT=3457 ollama-mcp
  • OLLAMA_API : Ollama APIエンドポイント(デフォルト: http://localhost:11434

APIエンドポイント

  • GET /models - 利用可能なモデルを一覧表示する

  • POST /models/pull - 新しいモデルをプルする

  • POST /chat - モデルとチャットする

  • GET /models/:name - モデルの詳細を取得する

発達

  1. リポジトリをクローンします。

git clone https://github.com/rawveg/ollama-mcp.git cd ollama-mcp
  1. 依存関係をインストールします:

npm install
  1. プロジェクトをビルドします。

npm run build
  1. サーバーを起動します。

npm start

貢献

貢献を歓迎します!お気軽にプルリクエストを送信してください。

ただし、これは事前の協議と合意なしに、このプロジェクトをサードパーティのサービスや商用プラットフォームに組み込むことを許可するものではありません。以前は、 Smitheryなどのサービスとの統合をサポートするための貢献(Dockerfileや関連するREADMEの更新など)を受け入れていましたが、同様のサービスであるGlamaの最近の行動により、このポリシーの見直しが必要になりました。

Glamaは、事前の通知や同意なしにオープンソースのMCPプロジェクトを商用サービスに含めることを決定し、その後、メンテナーに対し、自社プラットフォームとの互換性を確保するための無償作業を求めるIssueリクエストを作成しました。対話や報酬なしにコミュニティの労働力を利益のために利用するというこの行為は、配慮に欠けるだけでなく、倫理的にも問題があります。

その結果、本プロジェクトとその貢献者の完全性を守るため、ライセンスはGNU Affero General Public License v3.0 (AGPL-3.0)におけるソフトウェアの使用は、AGPLの条項に完全に準拠し**、別途商用ライセンスを取得する必要があることが保証されます。プロジェクトが積極的に収益化され**ている場合、元のソースへのリンクを貼るだけでは不十分です。本プロジェクトを商用提供に含めたい場合は、事前にご連絡いただき、ライセンス条件についてご相談ください。

ライセンス

AGPL v3.0

関連している

このプロジェクトは以前はMITライセンスでした。2025年4月20日以降、無許可の商用利用を防ぐため、AGPL-3.0ライセンスに変更されました。この変更以前にこのプロジェクトをご利用の場合は、該当するライセンスについては、関連するGitタグまたはコミットを参照してください。

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/rawveg/ollama-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server