Skip to main content
Glama
lior-ps

Multi LLM Cross-Check MCP Server

マルチLLMクロスチェックMCPサーバー

鍛冶屋のバッジ複数のLLMプロバイダーからの応答を同時にクロスチェックできるモデル制御プロトコル(MCP)サーバー。このサーバーは、Claude DesktopとMCPサーバーとして統合され、異なるLLM APIへのクエリを統一されたインターフェースで提供します。

特徴

  • 複数の LLM プロバイダーを並列にクエリする

  • 現在サポートされています:

    • OpenAI(チャットGPT)

    • 人類学的(クロード)

    • 困惑AI

    • Google(ジェミニ)

  • 非同期並列処理による高速応答

  • Claude Desktopとの簡単な統合

Related MCP server: Parquet MCP Server

前提条件

  • Python 3.8以上

  • 使用したいLLMプロバイダーのAPIキー

  • uv パッケージ マネージャー ( pip install uvでインストール)

インストール

Smithery経由でインストール

Smithery経由で Claude Desktop 用の Multi LLM Cross-Check Server を自動的にインストールするには:

npx -y @smithery/cli install @lior-ps/multi-llm-cross-check-mcp-server --client claude

手動インストール

  1. このリポジトリをクローンします:

git clone https://github.com/lior-ps/multi-llm-cross-check-mcp-server.git
cd multi-llm-cross-check-mcp-server
  1. UV 環境を初期化し、要件をインストールします。

uv venv
uv pip install -r requirements.txt
  1. Claude Desktop で構成: Claude Desktop 構成ディレクトリに、次の内容を含むclaude_desktop_config.jsonという名前のファイルを作成します。

    {
      "mcp_servers": [
        {
          "command": "uv",
          "args": [
            "--directory",
            "/multi-llm-cross-check-mcp-server",
            "run",
            "main.py"
          ],
          "env": {
            "OPENAI_API_KEY": "your_openai_key",  // Get from https://platform.openai.com/api-keys
            "ANTHROPIC_API_KEY": "your_anthropic_key",  // Get from https://console.anthropic.com/account/keys
            "PERPLEXITY_API_KEY": "your_perplexity_key",  // Get from https://www.perplexity.ai/settings/api
            "GEMINI_API_KEY": "your_gemini_key"  // Get from https://makersuite.google.com/app/apikey
          }
        }
      ]
    }

    注記:

    1. 使用するLLMプロバイダーのAPIキーのみを追加してください。APIキーが設定されていないプロバイダーはサーバーによってスキップされます。

    2. コマンドフィールドに uv 実行ファイルへのフルパスを入力する必要があるかもしれません。これは、MacOS/Linuxではwhich uv 、Windowsではwhere uv実行することで取得できます。

MCPサーバーの使用

設定が完了したら:

  1. Claude Desktopを開くとサーバーが自動的に起動します

  2. 「他のLLMとクロスチェックする」ように依頼することで、会話の中でcross_checkツールを使用することができます。

  3. プロンプトを提供すると、構成されたすべてのLLMプロバイダーからの応答が返されます。

APIレスポンスフォーマット

サーバーは、各 LLM プロバイダーからの応答を含む辞書を返します。

{
    "ChatGPT": { ... },
    "Claude": { ... },
    "Perplexity": { ... },
    "Gemini": { ... }
}

エラー処理

  • 特定のLLMにAPIキーが提供されていない場合、そのプロバイダーはスキップされます。

  • APIエラーがキャッチされ、レスポンスで返されます

  • 各 LLM の応答は独立しているため、1 つのプロバイダーのエラーが他のプロバイダーに影響を与えることはありません。

貢献

貢献を歓迎します!お気軽にプルリクエストを送信してください。

ライセンス

このプロジェクトは MIT ライセンスに基づいてライセンスされています - 詳細については LICENSE ファイルを参照してください。

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/lior-ps/multi-llm-cross-check-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server