Model Context Protocol (MCP) Server

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Integrations

  • Uses LangChain's ReAct Agent to interact with MCP server tools through the convert_mcp_to_langchain_tools() utility function.

  • Supports OpenAI LLMs for executing MCP server tools through the LangChain ReAct Agent.

使用 LangChain / Python 的 MCP 客户端

这个简单的模型上下文协议 (MCP)客户端演示了 LangChain ReAct Agent 对 MCP 服务器工具的使用。

它利用了langchain_mcp_tools中的实用函数convert_mcp_to_langchain_tools()
此函数处理指定的多个 MCP 服务器的并行初始化,并将它们可用的工具转换为与 LangChain 兼容的工具列表 ( List[BaseTool] )。

目前支持 Anthropic、OpenAI 和 Groq 的 LLM。

此 MCP 客户端的 TypeScript 版本可在此处获取

先决条件

设置

  1. 安装依赖项:
    make install
  2. 设置 API 密钥:
    cp .env.template .env
    • 根据需要更新.env
    • .gitignore配置为忽略.env以防止意外提交凭据。
  3. 根据需要配置 LLM 和 MCP 服务器设置llm_mcp_config.json5
    • MCP 服务器的配置文件格式遵循与Claude for Desktop相同的结构,但有一点不同:键名mcpServers已更改为mcp_servers ,以遵循 JSON 配置文件中常用的 snake_case 约定。
    • 文件格式为JSON5 ,其中允许使用注释和尾随逗号。
    • 该格式进一步扩展,用相应环境变量的值替换${...}符号。
    • 将所有凭证和私人信息保存在.env文件中,并根据需要使用${...}符号引用它们。

用法

运行应用程序:

make start

第一次运行需要一段时间。

以详细模式运行:

make start-v

查看命令行选项:

make start-h

在提示符下,您只需按 Enter 即可使用执行 MCP 服务器工具调用的示例查询。

可以在llm_mcp_config.json5中配置示例查询

-
security - not tested
A
license - permissive license
-
quality - not tested

该服务器有助于调用来自 Anthropic、OpenAI 和 Groq 等提供商的 AI 模型,使用户能够无缝管理和配置大型语言模型交互。

  1. Prerequisites
    1. Setup
      1. Usage
        ID: 0t8oxsctbq