local-only server
The server can only run on the client’s local machine because it depends on local resources.
Integrations
Provides access to Ollama's local LLM models through a Model Context Protocol server, allowing listing, pulling, and chatting with Ollama models
Ollama MCP サーバー
Ollama のローカル LLM モデルと Claude Desktop などの MCP 互換アプリケーションとのシームレスな統合を可能にする、Ollama 用の MCP (モデル コンテキスト プロトコル) サーバー。
特徴
- 利用可能なOllamaモデルの一覧
- Ollamaから新しいモデルを取得する
- Ollama のチャット API を使用してモデルとチャットする
- 詳細なモデル情報を取得する
- 自動ポート管理
- 環境変数の設定
前提条件
- Node.js (v16 以上)
- npm
- Ollama をローカルにインストールして実行
インストール
Smithery経由でインストール
Smithery経由で Claude Desktop 用の Ollama MCP Server を自動的にインストールするには:
手動インストール
npm 経由でグローバルにインストールします。
他のMCPアプリケーションへのインストール
Ollama MCP サーバーを他の MCP 互換アプリケーション (Cline や Claude Desktop など) にインストールするには、アプリケーションの MCP 設定ファイルに次の構成を追加します。
設定ファイルの場所はアプリケーションによって異なります。
- Claude デスクトップ: Claude アプリ データ ディレクトリ内の
claude_desktop_config.json
- Cline: VS Code グローバル ストレージ内の
cline_mcp_settings.json
使用法
サーバーの起動
単に実行します:
サーバーはデフォルトでポート3456で起動します。PORT環境変数を使用して別のポートを指定することもできます。
環境変数
PORT
: サーバーポート(デフォルト: 3456)。直接実行時とSmitheryインストール時の両方で使用できます。CopyOLLAMA_API
: Ollama APIエンドポイント(デフォルト: http://localhost:11434 )
APIエンドポイント
GET /models
- 利用可能なモデルを一覧表示するPOST /models/pull
- 新しいモデルをプルするPOST /chat
- モデルとチャットするGET /models/:name
- モデルの詳細を取得する
発達
- リポジトリをクローンします。
- 依存関係をインストールします:
- プロジェクトをビルドします。
- サーバーを起動します。
貢献
貢献を歓迎します!お気軽にプルリクエストを送信してください。
ライセンス
マサチューセッツ工科大学
関連している
This server cannot be installed
Ollama のローカル LLM モデルと MCP 互換アプリケーション間のシームレスな統合を可能にし、モデル管理とチャット インタラクションをサポートします。