Enables seamless communication with local Ollama LLM instances, providing capabilities for task decomposition, result evaluation, and direct model execution with configurable parameters.
Provides a Python interface for utilizing the MCP server's tools programmatically, allowing developers to implement task decomposition, result evaluation, and model execution in Python applications.
ollama-MCP-server
Ollamaと通信するModel Context Protocol (MCP) サーバー
概要
このMCPサーバーは、ローカルのOllama LLMインスタンスとMCP互換アプリケーションの間でシームレスな統合を可能にし、高度なタスク分解、評価、ワークフロー管理を提供します。
主な機能:
複雑な問題のタスク分解
結果の評価と検証
Ollamaモデルの管理と実行
MCPプロトコルによる標準化された通信
高度なエラー処理と詳細なエラーメッセージ
パフォーマンス最適化(コネクションプーリング、LRUキャッシュ)
Related MCP server: Ollama MCP Server
コンポーネント
リソース
サーバーは以下のリソースを実装しています:
task:// - 個別のタスクにアクセスするためのURIスキーム
result:// - 評価結果にアクセスするためのURIスキーム
model:// - 利用可能なOllamaモデルにアクセスするためのURIスキーム
各リソースには、最適なLLMとの対話のための適切なメタデータとMIMEタイプが設定されています。
プロンプトとツールの関係
MCPサーバーでは、プロンプトとツールは密接に関連していますが、異なる役割を持っています。
プロンプト:LLMに特定の思考方法や構造を提供するスキーマ(Schema)のような役割
ツール:実際にアクションを実行するハンドラー(Handler)のような役割
各ツールには対応するスキーマ(プロンプト)が必要であり、これによりLLMの思考能力と実際のシステム機能を効果的に連携させることができます。
プロンプト
サーバーはいくつかの特殊なプロンプトを提供します:
decompose-task - 複雑なタスクを管理しやすいサブタスクに分解
タスクの説明と粒度レベルのオプションパラメータを取得
依存関係と推定複雑性を含む構造化された内訳を返す
evaluate-result - 指定された基準に対してタスク結果を分析
結果の内容と評価パラメータを取得
スコアと改善提案を含む詳細な評価を返す
ツール
サーバーはいくつかの強力なツールを実装しています:
add-task
必須パラメータ:
name(文字列),description(文字列)オプションパラメータ:
priority(数値),deadline(文字列),tags(配列)システムに新しいタスクを作成し、その識別子を返す
対応するスキーマ: タスク作成のためのデータ検証スキーマ
decompose-task
必須パラメータ:
task_id(文字列),granularity(文字列: "high"|"medium"|"low")オプションパラメータ:
max_subtasks(数値)Ollamaを使用して複雑なタスクを管理可能なサブタスクに分解
対応するスキーマ: 上記の
decompose-taskプロンプト
evaluate-result
必須パラメータ:
result_id(文字列),criteria(オブジェクト)オプションパラメータ:
detailed(ブール値)指定された基準に対して結果を評価し、フィードバックを提供
対応するスキーマ: 上記の
evaluate-resultプロンプト
run-model
必須パラメータ:
model(文字列),prompt(文字列)オプションパラメータ:
temperature(数値),max_tokens(数値)指定されたパラメータでOllamaモデルを実行
対応するスキーマ: Ollamaモデル実行パラメータの検証スキーマ
新機能と改善点
拡張エラー処理
サーバーは、より詳細で構造化されたエラーメッセージを提供します。これにより、クライアントアプリケーションはエラーをより効果的に処理できます。エラーレスポンスの例:
パフォーマンス最適化
コネクションプーリング: 共有HTTP接続プールを使用することで、リクエストのパフォーマンスが向上し、リソース使用率が低減されます。
LRUキャッシュ: 同一または類似のリクエストに対する応答をキャッシュすることで、レスポンス時間が短縮され、Ollamaサーバーの負荷が軽減されます。
これらの設定は config.py で調整できます:
モデル指定機能
概要
Ollama-MCP-Serverは、複数の方法でOllamaモデルを指定できる柔軟な機能を提供します。
モデル指定の優先順位
モデルは以下の優先順位で指定されます:
ツール呼び出し時のパラメータ (
modelパラメータ)MCP設定ファイルの
envセクション環境変数 (
OLLAMA_DEFAULT_MODEL)デフォルト値 (
llama3)
MCP設定ファイルを使ったモデル指定
Claude Desktopなどのクライアントで使用する場合、MCP設定ファイルを使用してモデルを指定できます:
利用可能なモデルの確認
サーバー起動時に、設定されたモデルが存在するかチェックされます。モデルが見つからない場合は警告ログが出力されます。また、run-modelツールは利用可能なモデル一覧を返すため、ユーザーは有効なモデルを選択できます。
エラーハンドリングの改善
指定したモデルが存在しない場合や通信エラーが発生した場合、詳細なエラーメッセージが提供されます。エラーメッセージには利用可能なモデル一覧が含まれるため、ユーザーは素早く問題を解決できます。
テスト
プロジェクトには包括的なテストスイートが含まれています:
ユニットテスト: 個々のコンポーネントの機能をテスト
統合テスト: エンドツーエンドのワークフローをテスト
テストを実行するには:
設定
環境変数
Ollamaのセットアップ
Ollamaがインストールされ、適切なモデルで実行されていることを確認してください:
クイックスタート
インストール
Claude Desktop設定
MacOS
パス: ~/Library/Application\ Support/Claude/claude_desktop_config.json
Windows
パス: %APPDATA%/Claude/claude_desktop_config.json
使用例
タスク分解
複雑なタスクを管理可能なサブタスクに分解するには:
結果評価
特定の基準に対して結果を評価するには:
Ollamaモデルの実行
Ollamaモデルに対して直接クエリを実行するには:
開発
プロジェクトのセットアップ
リポジトリをクローン:
仮想環境を作成してアクティベート:
開発依存関係をインストール:
ローカル開発
プロジェクトには便利な開発用スクリプトが含まれています:
サーバーの実行
オプション:
--debug: デバッグモードで実行(ログレベル: DEBUG)--log=LEVEL: ログレベルを指定(DEBUG, INFO, WARNING, ERROR, CRITICAL)
テストの実行
オプション:
--unit: ユニットテストのみ実行--integration: 統合テストのみ実行--all: すべてのテストを実行(デフォルト)--verbose: 詳細なテスト出力
ビルドと公開
パッケージを配布用に準備するには:
依存関係を同期してロックファイルを更新:
パッケージの配布物をビルド:
これにより、dist/ディレクトリにソースとホイールの配布物が作成されます。
PyPIに公開:
注: PyPI認証情報を環境変数またはコマンドフラグで設定する必要があります:
トークン:
--tokenまたはUV_PUBLISH_TOKENまたはユーザー名/パスワード:
--username/UV_PUBLISH_USERNAMEと--password/UV_PUBLISH_PASSWORD
デバッグ
MCPサーバーはstdioを介して実行されるため、デバッグは難しい場合があります。最適なデバッグ 体験のために、MCP Inspectorの使用を強く推奨します。
npmを使用してMCP Inspectorを起動するには、次のコマンドを実行します:
起動時、Inspectorはブラウザでアクセスしてデバッグを開始できるURLを表示します。
アーキテ
貢献
貢献は歓迎します!お気軽にプルリクエストを提出してください。
リポジトリをフォーク
機能ブランチを作成 (
git checkout -b feature/amazing-feature)変更をコミット (
git commit -m 'Add some amazing feature')ブランチにプッシュ (
git push origin feature/amazing-feature)プルリクエストを開く
ライセンス
このプロジェクトはMITライセンスの下でライセンスされています - 詳細はLICENSEファイルを参照してください。
謝辞
優れたプロトコル設計を提供したModel Context Protocolチーム
ローカルLLM実行をアクセス可能にしたOllamaプロジェクト
このプロジェクトのすべての貢献者