Integrations
LLM 桥梁 MCP
LLM Bridge MCP 允许 AI 代理通过标准化接口与多个大型语言模型进行交互。它利用消息控制协议 (MCP) 无缝访问不同的 LLM 提供程序,从而轻松在模型之间切换或在同一应用程序中使用多个模型。
特征
- 多个 LLM 提供商的统一接口:
- OpenAI(GPT 模型)
- 人类学(克劳德模型)
- 谷歌(Gemini 型号)
- DeepSeek
- ...
- 使用 Pydantic AI 构建,用于类型安全和验证
- 支持可定制的参数,如温度和最大令牌
- 提供使用情况跟踪和指标
工具
服务器实现了以下工具:
Copy
prompt
:发送给 LLM 的文本提示model_name
:要使用的特定模型(默认值:“openai:gpt-4o-mini”)temperature
:控制随机性(0.0 到 1.0)max_tokens
:要生成的最大令牌数system_prompt
:可选的系统提示,用于指导模型的行为
安装
通过 Smithery 安装
要通过Smithery自动为 Claude Desktop 安装 llm-bridge-mcp:
Copy
手动安装
- 克隆存储库:
Copy
- 安装uv (如果尚未安装):
Copy
配置
使用您的 API 密钥在根目录中创建一个.env
文件:
Copy
用法
与 Claude Desktop 或 Cursor 一起使用
将服务器条目添加到您的 Claude Desktop 配置文件或.cursor/mcp.json
:
Copy
故障排除
常见问题
1. “spawn uvx ENOENT”错误
当系统在 PATH 中找不到uvx
可执行文件时,就会发生此错误。解决方法如下:
解决方案:使用 uvx 的完整路径
找到 uvx 可执行文件的完整路径:
Copy
然后更新您的 MCP 服务器配置以使用完整路径:
Copy
执照
该项目根据 MIT 许可证获得许可 - 有关详细信息,请参阅 LICENSE 文件。
This server cannot be installed
使 AI 代理能够通过标准化接口与多个 LLM 提供商(OpenAI、Anthropic、Google、DeepSeek)进行交互,从而可以轻松地在模型之间切换或在同一应用程序中使用多个模型。