多 LLM 交叉检查 MCP 服务器
模型控制协议 (MCP) 服务器,允许同时交叉核对来自多个 LLM 提供商的响应。该服务器与 Claude Desktop 集成,作为 MCP 服务器,提供统一的接口来查询不同的 LLM API。
特征
- 并行查询多个 LLM 提供商
- 目前支持:
- OpenAI(ChatGPT)
- 人性(克劳德)
- 困惑人工智能
- 谷歌(双子座)
- 异步并行处理,响应更快
- 轻松与 Claude Desktop 集成
先决条件
- Python 3.8 或更高版本
- 您想要使用的 LLM 提供商的 API 密钥
- uv 包管理器(使用
pip install uv
安装)
安装
- 克隆此存储库:
Copy
- 初始化uv环境并安装要求:
Copy
- 在 Claude Desktop 中配置:在 Claude Desktop 配置目录中创建一个名为
claude_desktop_config.json
的文件,其内容如下:笔记:Copy- 您只需为要使用的 LLM 提供程序添加 API 密钥即可。服务器将跳过任何未配置 API 密钥的提供程序。
- 您可能需要在命令字段中输入 uv 可执行文件的完整路径。您可以在 MacOS/Linux 上运行
which uv
或在 Windows 上运行where uv
来获取此路径。
使用 MCP 服务器
配置完成后:
- 当您打开 Claude Desktop 时,服务器将自动启动
- 您可以在对话中使用
cross_check
工具,要求“与其他 LLM 进行交叉检查” - 提供提示,它将返回所有已配置的 LLM 提供程序的响应
API 响应格式
服务器返回一个包含每个 LLM 提供商的响应的字典:
Copy
错误处理
- 如果没有为特定 LLM 提供 API 密钥,则将跳过该提供商
- API 错误被捕获并在响应中返回
- 每个 LLM 的响应都是独立的,因此一个提供商的错误不会影响其他提供商
贡献
欢迎贡献代码!欢迎提交 Pull 请求。
执照
该项目根据 MIT 许可证获得许可 - 有关详细信息,请参阅 LICENSE 文件。
This server cannot be installed
模型控制协议服务器与 Claude Desktop 集成,可同时查询和交叉检查来自多个 LLM 提供商(包括 OpenAI、Anthropic、Perplexity AI 和 Google Gemini)的响应。