Skip to main content
Glama

Multi LLM Cross-Check MCP Server

多 LLM 交叉检查 MCP 服务器

模型控制协议 (MCP) 服务器,允许同时交叉核对来自多个 LLM 提供商的响应。该服务器与 Claude Desktop 集成,作为 MCP 服务器,提供统一的接口来查询不同的 LLM API。

特征

  • 并行查询多个 LLM 提供商
  • 目前支持:
    • OpenAI(ChatGPT)
    • 人性(克劳德)
    • 困惑人工智能
    • 谷歌(双子座)
  • 异步并行处理,响应更快
  • 轻松与 Claude Desktop 集成

先决条件

  • Python 3.8 或更高版本
  • 您想要使用的 LLM 提供商的 API 密钥
  • uv 包管理器(使用pip install uv安装)

安装

通过 Smithery 安装

要通过Smithery自动为 Claude Desktop 安装 Multi LLM Cross-Check Server:

npx -y @smithery/cli install @lior-ps/multi-llm-cross-check-mcp-server --client claude

手动安装

  1. 克隆此存储库:
git clone https://github.com/lior-ps/multi-llm-cross-check-mcp-server.git cd multi-llm-cross-check-mcp-server
  1. 初始化uv环境并安装要求:
uv venv uv pip install -r requirements.txt
  1. 在 Claude Desktop 中配置:在 Claude Desktop 配置目录中创建一个名为claude_desktop_config.json的文件,其内容如下:
    { "mcp_servers": [ { "command": "uv", "args": [ "--directory", "/multi-llm-cross-check-mcp-server", "run", "main.py" ], "env": { "OPENAI_API_KEY": "your_openai_key", // Get from https://platform.openai.com/api-keys "ANTHROPIC_API_KEY": "your_anthropic_key", // Get from https://console.anthropic.com/account/keys "PERPLEXITY_API_KEY": "your_perplexity_key", // Get from https://www.perplexity.ai/settings/api "GEMINI_API_KEY": "your_gemini_key" // Get from https://makersuite.google.com/app/apikey } } ] }
    笔记:
    1. 您只需为要使用的 LLM 提供程序添加 API 密钥即可。服务器将跳过任何未配置 API 密钥的提供程序。
    2. 您可能需要在命令字段中输入 uv 可执行文件的完整路径。您可以在 MacOS/Linux 上运行which uv或在 Windows 上运行where uv来获取此路径。

使用 MCP 服务器

配置完成后:

  1. 当您打开 Claude Desktop 时,服务器将自动启动
  2. 您可以在对话中使用cross_check工具,要求“与其他 LLM 进行交叉检查”
  3. 提供提示,它将返回所有已配置的 LLM 提供程序的响应

API 响应格式

服务器返回一个包含每个 LLM 提供商的响应的字典:

{ "ChatGPT": { ... }, "Claude": { ... }, "Perplexity": { ... }, "Gemini": { ... } }

错误处理

  • 如果没有为特定 LLM 提供 API 密钥,则将跳过该提供商
  • API 错误被捕获并在响应中返回
  • 每个 LLM 的响应都是独立的,因此一个提供商的错误不会影响其他提供商

贡献

欢迎贡献代码!欢迎提交 Pull 请求。

执照

该项目根据 MIT 许可证获得许可 - 有关详细信息,请参阅 LICENSE 文件。

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

模型控制协议服务器与 Claude Desktop 集成,可同时查询和交叉检查来自多个 LLM 提供商(包括 OpenAI、Anthropic、Perplexity AI 和 Google Gemini)的响应。

  1. 特征
    1. 先决条件
      1. 安装
        1. 通过 Smithery 安装
        2. 手动安装
      2. 使用 MCP 服务器
        1. API 响应格式
          1. 错误处理
            1. 贡献
              1. 执照

                Related MCP Servers

                • -
                  security
                  A
                  license
                  -
                  quality
                  A Model Context Protocol (MCP) server that lets you seamlessly use OpenAI's models right from Claude.
                  Last updated -
                  1
                  24
                  28
                  JavaScript
                  MIT License
                  • Apple
                • A
                  security
                  A
                  license
                  A
                  quality
                  A Model Context Protocol server that provides LLMs with access to Valyu's knowledge retrieval and feedback APIs for searching proprietary/web sources and submitting transaction feedback.
                  Last updated -
                  2
                  TypeScript
                  MIT License
                  • Linux
                  • Apple
                • -
                  security
                  A
                  license
                  -
                  quality
                  A Model Context Protocol server that enables LLMs like Claude to interact with SQLite and SQL Server databases, allowing for schema inspection and SQL query execution.
                  Last updated -
                  195
                  44
                  TypeScript
                  MIT License
                  • Linux
                  • Apple
                • -
                  security
                  F
                  license
                  -
                  quality
                  A unified Model Context Protocol Gateway that bridges LLM interfaces with various tools and services, providing OpenAI API compatibility and supporting both synchronous and asynchronous tool execution.
                  Last updated -
                  Python

                View all related MCP servers

                MCP directory API

                We provide all the information about MCP servers via our MCP API.

                curl -X GET 'https://glama.ai/api/mcp/v1/servers/lior-ps/multi-llm-cross-check-mcp-server'

                If you have feedback or need assistance with the MCP directory API, please join our Discord server