マルチモデルアドバイザー
(锵锵四人行)
モデルコンテキストプロトコル(MCP)サーバーは、複数のOllamaモデルにクエリを実行し、それらの応答を統合することで、単一の質問に対して多様なAIの視点を提供します。これにより、「アドバイザー評議会」のようなアプローチが実現し、Claudeは自身の視点に加えて複数の視点を統合することで、より包括的な回答を提供できます。
特徴
- 1つの質問で複数のOllamaモデルをクエリする
- 各モデルに異なる役割/ペルソナを割り当てる
- システムで利用可能なすべてのOllamaモデルを表示します
- 各モデルのシステムプロンプトをカスタマイズする
- 環境変数で設定する
- Claude for Desktopとシームレスに統合
前提条件
- Node.js 16.x 以上
- Ollama がインストールされ、実行中である ( Ollama のインストールを参照)
- Claude for Desktop(完全なアドバイザリエクスペリエンスを実現)
インストール
Smithery経由でインストール
Smithery経由で Claude Desktop 用の multi-ai-advisor-mcp を自動的にインストールするには:
手動インストール
- このリポジトリをクローンします:
- 依存関係をインストールします:
- プロジェクトをビルドします。
- 必要な Ollama モデルをインストールします。
構成
希望する構成でプロジェクト ルートに.env
ファイルを作成します。
デスクトップ版Claudeに接続
- Claude for Desktop の構成ファイルを見つけます。
- MacOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- Windows:
%APPDATA%\Claude\claude_desktop_config.json
- MacOS:
- ファイルを編集して、Multi-Model Advisor MCP サーバーを追加します。
/absolute/path/to/
プロジェクトディレクトリへの実際のパスに置き換えます。- デスクトップ版のClaudeを再起動
使用法
Claude for Desktop に接続すると、Multi-Model Advisor をいくつかの方法で使用できるようになります。
利用可能なモデルの一覧
システムで利用可能なすべてのモデルを確認できます。
これにより、インストールされているすべての Ollama モデルが表示され、どれがデフォルトとして設定されているかが示されます。
基本的な使い方
Claude にマルチモデル アドバイザーを使用するように依頼するだけです。
Claude はすべてのデフォルト モデルを照会し、さまざまな観点に基づいて統合された応答を提供します。
仕組み
- MCP サーバーは次の 2 つのツールを公開します。
list-available-models
: システム上のすべてのOllamaモデルを表示しますquery-models
: 質問で複数のモデルを照会する
- マルチモデルアドバイザーに関してクロードに質問すると、次のようになります。
- クロードは
query-models
ツールを使うことにした - サーバーはあなたの質問を複数のOllamaモデルに送信します
- 各モデルはそれぞれの視点で反応する
- クロードはすべての回答を受け取り、包括的な回答をまとめる
- クロードは
- 各モデルには異なる「ペルソナ」または役割を割り当てることができるため、多様な視点が促進されます。
トラブルシューティング
Ollama 接続の問題
サーバーがOllamaに接続できない場合:
- Ollama が実行中であることを確認する (
ollama serve
) - .env ファイル内の OLLAMA_API_URL が正しいことを確認してください
- ブラウザでhttp://localhost:11434にアクセスして、Ollama が応答していることを確認してください。
モデルが見つかりません
モデルが利用できないと報告された場合:
ollama pull <model-name>
を使用してモデルをプルしたことを確認します。ollama list
を使用して正確なモデル名を確認する- 利用可能なすべてのモデルを表示するには、
list-available-models
ツールを使用してください。
クロードがMCPツールを表示しない
Claude にツールが表示されない場合:
- 設定を更新した後、Claudeを再起動してください。
- claude_desktop_config.json の絶対パスが正しいことを確認してください
- クロードのログでエラーメッセージを確認する
RAMが足りない
一部のマネージャーのAIモデルでは、より大きなモデルが選択されている可能性がありますが、実行に必要なメモリが不足しています。より小さなモデルを指定するか(基本的な使用方法を参照)、メモリをアップグレードしてみてください。
ライセンス
MITライセンス
詳細については、このプロジェクトリポジトリのLICENSEファイルを参照してください。
貢献
貢献を歓迎します!お気軽にプルリクエストを送信してください。
You must be authenticated.
local-only server
The server can only run on the client's local machine because it depends on local resources.
複数の Ollama モデルにクエリを実行し、その応答を組み合わせて、単一の質問に対する多様な AI の視点を提供し、より包括的な回答を提供する MCP サーバー。
Related Resources
Related MCP Servers
- AsecurityAlicenseAqualityMCP Ollama server integrates Ollama models with MCP clients, allowing users to list models, get detailed information, and interact with them through questions.Last updated -312PythonMIT License
- AsecurityAlicenseAqualityAn MCP server integrating Perplexity AI's API to offer advanced search capabilities with support for multiple models and result configuration.Last updated -11JavaScriptMIT License
- -securityAlicense-qualityA simple MCP server implementation that provides AI models with basic Solana RPC methods and helpful development prompts.Last updated -21TypeScriptMIT License
- -securityFlicense-qualityAn MCP server that enables AI models to search the web using OpenAI's 4o-mini Search model, allowing access to up-to-date information for just a few cents per search.Last updated -1JavaScript