Skip to main content
Glama
lior-ps

Multi LLM Cross-Check MCP Server

多 LLM 交叉检查 MCP 服务器

铁匠徽章模型控制协议 (MCP) 服务器,允许同时交叉核对来自多个 LLM 提供商的响应。该服务器与 Claude Desktop 集成,作为 MCP 服务器,提供统一的接口来查询不同的 LLM API。

特征

  • 并行查询多个 LLM 提供商

  • 目前支持:

    • OpenAI(ChatGPT)

    • 人性(克劳德)

    • 困惑人工智能

    • 谷歌(双子座)

  • 异步并行处理,响应更快

  • 轻松与 Claude Desktop 集成

Related MCP server: Parquet MCP Server

先决条件

  • Python 3.8 或更高版本

  • 您想要使用的 LLM 提供商的 API 密钥

  • uv 包管理器(使用pip install uv安装)

安装

通过 Smithery 安装

要通过Smithery自动为 Claude Desktop 安装 Multi LLM Cross-Check Server:

npx -y @smithery/cli install @lior-ps/multi-llm-cross-check-mcp-server --client claude

手动安装

  1. 克隆此存储库:

git clone https://github.com/lior-ps/multi-llm-cross-check-mcp-server.git
cd multi-llm-cross-check-mcp-server
  1. 初始化uv环境并安装要求:

uv venv
uv pip install -r requirements.txt
  1. 在 Claude Desktop 中配置:在 Claude Desktop 配置目录中创建一个名为claude_desktop_config.json的文件,其内容如下:

    {
      "mcp_servers": [
        {
          "command": "uv",
          "args": [
            "--directory",
            "/multi-llm-cross-check-mcp-server",
            "run",
            "main.py"
          ],
          "env": {
            "OPENAI_API_KEY": "your_openai_key",  // Get from https://platform.openai.com/api-keys
            "ANTHROPIC_API_KEY": "your_anthropic_key",  // Get from https://console.anthropic.com/account/keys
            "PERPLEXITY_API_KEY": "your_perplexity_key",  // Get from https://www.perplexity.ai/settings/api
            "GEMINI_API_KEY": "your_gemini_key"  // Get from https://makersuite.google.com/app/apikey
          }
        }
      ]
    }

    笔记:

    1. 您只需为要使用的 LLM 提供程序添加 API 密钥即可。服务器将跳过任何未配置 API 密钥的提供程序。

    2. 您可能需要在命令字段中输入 uv 可执行文件的完整路径。您可以在 MacOS/Linux 上运行which uv或在 Windows 上运行where uv来获取此路径。

使用 MCP 服务器

配置完成后:

  1. 当您打开 Claude Desktop 时,服务器将自动启动

  2. 您可以在对话中使用cross_check工具,要求“与其他 LLM 进行交叉检查”

  3. 提供提示,它将返回所有已配置的 LLM 提供程序的响应

API 响应格式

服务器返回一个包含每个 LLM 提供商的响应的字典:

{
    "ChatGPT": { ... },
    "Claude": { ... },
    "Perplexity": { ... },
    "Gemini": { ... }
}

错误处理

  • 如果没有为特定 LLM 提供 API 密钥,则将跳过该提供商

  • API 错误被捕获并在响应中返回

  • 每个 LLM 的响应都是独立的,因此一个提供商的错误不会影响其他提供商

贡献

欢迎贡献代码!欢迎提交 Pull 请求。

执照

该项目根据 MIT 许可证获得许可 - 有关详细信息,请参阅 LICENSE 文件。

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/lior-ps/multi-llm-cross-check-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server