マルチLLMクロスチェックMCPサーバー
複数のLLMプロバイダーからの応答を同時にクロスチェックできるモデル制御プロトコル(MCP)サーバー。このサーバーは、Claude DesktopとMCPサーバーとして統合され、異なるLLM APIへのクエリを統一されたインターフェースで提供します。
特徴
- 複数の LLM プロバイダーを並列にクエリする
- 現在サポートされています:
- OpenAI(チャットGPT)
- 人類学的(クロード)
- 困惑AI
- Google(ジェミニ)
- 非同期並列処理による高速応答
- Claude Desktopとの簡単な統合
前提条件
- Python 3.8以上
- 使用したいLLMプロバイダーのAPIキー
- uv パッケージ マネージャー (
pip install uv
でインストール)
インストール
- このリポジトリをクローンします:
Copy
- UV 環境を初期化し、要件をインストールします。
Copy
- Claude Desktop で構成: Claude Desktop 構成ディレクトリに、次の内容を含む
claude_desktop_config.json
という名前のファイルを作成します。注記:Copy- 使用するLLMプロバイダーのAPIキーのみを追加してください。APIキーが設定されていないプロバイダーはサーバーによってスキップされます。
- コマンドフィールドに uv 実行ファイルへのフルパスを入力する必要があるかもしれません。これは、MacOS/Linuxでは
which uv
、Windowsではwhere uv
実行することで取得できます。
MCPサーバーの使用
設定が完了したら:
- Claude Desktopを開くとサーバーが自動的に起動します
- 「他のLLMとクロスチェックする」ように依頼することで、会話の中で
cross_check
ツールを使用することができます。 - プロンプトを提供すると、構成されたすべてのLLMプロバイダーからの応答が返されます。
APIレスポンスフォーマット
サーバーは、各 LLM プロバイダーからの応答を含む辞書を返します。
Copy
エラー処理
- 特定のLLMにAPIキーが提供されていない場合、そのプロバイダーはスキップされます。
- APIエラーがキャッチされ、レスポンスで返されます
- 各 LLM の応答は独立しているため、1 つのプロバイダーのエラーが他のプロバイダーに影響を与えることはありません。
貢献
貢献を歓迎します!お気軽にプルリクエストを送信してください。
ライセンス
このプロジェクトは MIT ライセンスに基づいてライセンスされています - 詳細については LICENSE ファイルを参照してください。
This server cannot be installed
Claude Desktop と統合され、OpenAI、Anthropic、Perplexity AI、Google Gemini などの複数の LLM プロバイダーからの応答を同時にクエリおよびクロスチェックできるモデル制御プロトコル サーバー。