Ollama MCP サーバー
Ollama のローカル LLM モデルと Claude Desktop などの MCP 互換アプリケーションとのシームレスな統合を可能にする、Ollama 用の MCP (モデル コンテキスト プロトコル) サーバー。
特徴
- 利用可能なOllamaモデルの一覧
- Ollamaから新しいモデルを取得する
- Ollama のチャット API を使用してモデルとチャットする
- 詳細なモデル情報を取得する
- 自動ポート管理
- 環境変数の設定
前提条件
- Node.js (v16 以上)
- npm
- Ollama をローカルにインストールして実行
インストール
手動インストール
npm 経由でグローバルにインストールします。
他のMCPアプリケーションへのインストール
Ollama MCP サーバーを他の MCP 互換アプリケーション (Cline や Claude Desktop など) にインストールするには、アプリケーションの MCP 設定ファイルに次の構成を追加します。
設定ファイルの場所はアプリケーションによって異なります。
- Claude デスクトップ: Claude アプリ データ ディレクトリ内の
claude_desktop_config.json
- Cline: VS Code グローバル ストレージ内の
cline_mcp_settings.json
使用法
サーバーの起動
単に実行します:
サーバーはデフォルトでポート3456で起動します。PORT環境変数を使用して別のポートを指定することもできます。
環境変数
PORT
: サーバーポート(デフォルト: 3456)。直接実行時に使用できます。OLLAMA_API
: Ollama APIエンドポイント(デフォルト: http://localhost:11434 )
APIエンドポイント
GET /models
- 利用可能なモデルを一覧表示するPOST /models/pull
- 新しいモデルをプルするPOST /chat
- モデルとチャットするGET /models/:name
- モデルの詳細を取得する
発達
- リポジトリをクローンします。
- 依存関係をインストールします:
- プロジェクトをビルドします。
- サーバーを起動します。
貢献
貢献を歓迎します!お気軽にプルリクエストを送信してください。
ただし、これは事前の協議と合意なしに、このプロジェクトをサードパーティのサービスや商用プラットフォームに組み込むことを許可するものではありません。以前は、 Smitheryなどのサービスとの統合をサポートするための貢献(Dockerfileや関連するREADMEの更新など)を受け入れていましたが、同様のサービスであるGlamaの最近の行動により、このポリシーの見直しが必要になりました。
Glamaは、事前の通知や同意なしにオープンソースのMCPプロジェクトを商用サービスに含めることを決定し、その後、メンテナーに対し、自社プラットフォームとの互換性を確保するための無償作業を求めるIssueリクエストを作成しました。対話や報酬なしにコミュニティの労働力を利益のために利用するというこの行為は、配慮に欠けるだけでなく、倫理的にも問題があります。
その結果、本プロジェクトとその貢献者の完全性を守るため、ライセンスはGNU Affero General Public License v3.0 (AGPL-3.0)に更新されました。この変更により、特に商用またはサービスベースのプラットフォームにおけるソフトウェアの使用は、AGPLの条項に完全に準拠し**、別途商用ライセンスを取得する必要があることが保証されます。プロジェクトが積極的に収益化され**ている場合、元のソースへのリンクを貼るだけでは不十分です。本プロジェクトを商用提供に含めたい場合は、事前にご連絡いただき、ライセンス条件についてご相談ください。
ライセンス
AGPL v3.0
関連している
このプロジェクトは以前はMITライセンスでした。2025年4月20日以降、無許可の商用利用を防ぐため、AGPL-3.0ライセンスに変更されました。この変更以前にこのプロジェクトをご利用の場合は、該当するライセンスについては、関連するGitタグまたはコミットを参照してください。
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
Ollama のローカル LLM モデルと MCP 互換アプリケーション間のシームレスな統合を可能にし、モデル管理とチャット インタラクションをサポートします。
Related Resources
Related MCP Servers
- -securityFlicense-qualityAn interactive chat interface that combines Ollama's LLM capabilities with PostgreSQL database access through the Model Context Protocol (MCP). Ask questions about your data in natural language and get AI-powered responses backed by real SQL queries.Last updated -28TypeScript
- AsecurityAlicenseAqualityMCP Ollama server integrates Ollama models with MCP clients, allowing users to list models, get detailed information, and interact with them through questions.Last updated -312PythonMIT License
- AsecurityFlicenseAqualityA bridge that enables seamless integration of Ollama's local LLM capabilities into MCP-powered applications, allowing users to manage and run AI models locally with full API coverage.Last updated -1033JavaScript
- -securityFlicense-qualityA generic Model Context Protocol framework for building AI-powered applications that provides standardized ways to create MCP servers and clients for integrating LLMs with support for Ollama and Supabase.Last updated -TypeScript