-
security-
license-
qualityA simple server that acts as a Master Control Program (MCP) for unified interaction with OpenAI and Anthropic (Claude) AI models through a single API endpoint.
Last updated -
这个简单的模型上下文协议 (MCP)客户端演示了 LangChain ReAct Agent 对 MCP 服务器工具的使用。
它利用了langchain_mcp_tools
中的实用函数convert_mcp_to_langchain_tools()
。
此函数处理指定的多个 MCP 服务器的并行初始化,并将它们可用的工具转换为与 LangChain 兼容的工具列表 ( List[BaseTool] )。
目前支持 Anthropic、OpenAI 和 Groq 的 LLM。
此 MCP 客户端的 TypeScript 版本可在此处获取
uv
( uvx
)来运行基于 Python 包的 MCP 服务器npx
)用于运行基于 Node.js 包的 MCP 服务器.env
。.gitignore
配置为忽略.env
以防止意外提交凭据。llm_mcp_config.json5
。mcpServers
已更改为mcp_servers
,以遵循 JSON 配置文件中常用的 snake_case 约定。${...}
符号。.env
文件中,并根据需要使用${...}
符号引用它们。运行应用程序:
第一次运行需要一段时间。
以详细模式运行:
查看命令行选项:
在提示符下,您只需按 Enter 即可使用执行 MCP 服务器工具调用的示例查询。
可以在llm_mcp_config.json5
中配置示例查询
This server cannot be installed
该服务器有助于调用来自 Anthropic、OpenAI 和 Groq 等提供商的 AI 模型,使用户能够无缝管理和配置大型语言模型交互。
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/hideya/mcp-client-langchain-py'
If you have feedback or need assistance with the MCP directory API, please join our Discord server