使用 LangChain / Python 的 MCP 客户端
这个简单的模型上下文协议 (MCP)客户端演示了 LangChain ReAct Agent 对 MCP 服务器工具的使用。
它利用了langchain_mcp_tools中的实用函数convert_mcp_to_langchain_tools() 。
此函数处理指定的多个 MCP 服务器的并行初始化,并将它们可用的工具转换为与 LangChain 兼容的工具列表 ( List[BaseTool] )。
目前支持 Anthropic、OpenAI 和 Groq 的 LLM。
此 MCP 客户端的 TypeScript 版本可在此处获取
先决条件
设置
安装依赖项:
make install设置 API 密钥:
cp .env.template .env根据需要更新
.env。.gitignore配置为忽略.env以防止意外提交凭据。
根据需要配置 LLM 和 MCP 服务器设置
llm_mcp_config.json5。MCP 服务器的配置文件格式遵循与Claude for Desktop相同的结构,但有一点不同:键名
mcpServers已更改为mcp_servers,以遵循 JSON 配置文件中常用的 snake_case 约定。文件格式为JSON5 ,其中允许使用注释和尾随逗号。
该格式进一步扩展,用相应环境变量的值替换
${...}符号。将所有凭证和私人信息保存在
.env文件中,并根据需要使用${...}符号引用它们。
用法
运行应用程序:
第一次运行需要一段时间。
以详细模式运行:
查看命令行选项:
在提示符下,您只需按 Enter 即可使用执行 MCP 服务器工具调用的示例查询。
可以在llm_mcp_config.json5中配置示例查询
This server cannot be installed
该服务器有助于调用来自 Anthropic、OpenAI 和 Groq 等提供商的 AI 模型,使用户能够无缝管理和配置大型语言模型交互。
Related Resources
Related MCP Servers
- -security-license-qualityThis server provides an API to query Large Language Models using context from local files, supporting various models and file types for context-aware responses.Last updated -1
- -security-license-qualityA server that enables Large Language Models to discover and interact with REST APIs defined by OpenAPI specifications through the Model Context Protocol.Last updated -705178MIT License
- -security-license-qualityA server that provides rich UI context and interaction capabilities to AI models, enabling deep understanding of user interfaces through visual analysis and precise interaction via Model Context Protocol.Last updated -60
- -security-license-qualityA server that allows AI agents to consult multiple large language models (like Grok, Gemini, Claude, GPT-4o) through Model Context Protocol for assistance and information.Last updated -4