local-only server
The server can only run on the client’s local machine because it depends on local resources.
Integrations
Allows sending chat messages to OpenAI's API and receiving responses from models like gpt-4o
Integrates with Perplexity's API to send chat messages and receive responses from models like llama-3.1-sonar-small-128k-online
any-chat-completions-mcp MCP 服务器
将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。
这实现了模型上下文协议服务器。了解更多信息: https://modelcontextprotocol.io
这是一个基于 TypeScript 的 MCP 服务器,可实现任何 OpenAI SDK 兼容聊天完成 API。
它有一个工具, chat
,将问题转发给配置的 AI 聊天提供商。
发展
安装依赖项:
构建服务器:
对于使用自动重建的开发:
安装
要将 OpenAI 添加到 Claude Desktop,请添加服务器配置:
在 MacOS 上: ~/Library/Application Support/Claude/claude_desktop_config.json
在 Windows 上: %APPDATA%/Claude/claude_desktop_config.json
您可以通过多次引用同一个 MCP 服务器但使用不同的环境参数来添加多个提供程序:
有了这三个,您将在 Claude Desktop Home 中看到每个工具的一个工具:
然后你就可以与其他 LLM 聊天,聊天中显示如下内容:
调试
由于 MCP 服务器通过 stdio 进行通信,调试起来可能比较困难。我们推荐使用MCP Inspector ,它以包脚本的形式提供:
检查器将提供一个 URL 来访问浏览器中的调试工具。
致谢
- 显然,modelcontextprotocol 和 Anthropic 团队负责 MCP 规范并将其集成到 Claude Desktop。https ://modelcontextprotocol.io/introduction
- 感谢PyroPrompts赞助本项目。使用优惠码
CLAUDEANYCHAT
即可在 PyroPrompts 上免费获得 20 个自动化积分。
You must be authenticated.
Tools
将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。