Model Context Protocol (MCP) Server

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Integrations

  • Uses LangChain's ReAct Agent to interact with MCP server tools through the convert_mcp_to_langchain_tools() utility function.

  • Supports OpenAI LLMs for executing MCP server tools through the LangChain ReAct Agent.

Cliente MCP que utiliza LangChain/Python

Este sencillo cliente de Protocolo de contexto de modelo (MCP) demuestra el uso de las herramientas del servidor MCP por parte de LangChain ReAct Agent.

Aprovecha una función de utilidad convert_mcp_to_langchain_tools() de langchain_mcp_tools .
Esta función maneja la inicialización paralela de múltiples servidores MCP especificados y convierte sus herramientas disponibles en una lista de herramientas compatibles con LangChain ( List[BaseTool] ).

Actualmente se admiten LLM de Anthropic, OpenAI y Groq.

Una versión mecanografiada de este cliente MCP está disponible aquí

Prerrequisitos

  • Python 3.11+
  • [opcional] uv ( uvx ) instalado para ejecutar servidores MCP basados en paquetes Python
  • [opcional] npm 7+ ( npx ) para ejecutar servidores MCP basados en paquetes Node.js
  • Claves API de Anthropic , OpenAI y/o Groq según sea necesario

Configuración

  1. Instalar dependencias:
    make install
  2. Configurar claves API:
    cp .env.template .env
    • Actualice .env según sea necesario.
    • .gitignore está configurado para ignorar .env para evitar confirmaciones accidentales de las credenciales.
  3. Configure los ajustes de los servidores LLM y MCP llm_mcp_config.json5 según sea necesario.
    • El formato del archivo de configuración de los servidores MCP sigue la misma estructura que Claude for Desktop , con una diferencia: el nombre de clave mcpServers se ha cambiado a mcp_servers para seguir la convención snake_case comúnmente utilizada en los archivos de configuración JSON.
    • El formato del archivo es JSON5 , donde se permiten comentarios y comas finales.
    • El formato se amplía aún más para reemplazar las notaciones ${...} con los valores de las variables de entorno correspondientes.
    • Mantenga todas las credenciales y la información privada en el archivo .env y haga referencia a ellas con la notación ${...} según sea necesario.

Uso

Ejecute la aplicación:

make start

La primera vez tarda un poco.

Ejecutar en modo detallado:

make start-v

Ver opciones de la línea de comandos:

make start-h

Cuando se le solicite, puede simplemente presionar Entrar para usar consultas de ejemplo que realizan invocaciones de herramientas de servidor MCP.

Las consultas de ejemplo se pueden configurar en llm_mcp_config.json5

-
security - not tested
A
license - permissive license
-
quality - not tested

Este servidor facilita la invocación de modelos de IA de proveedores como Anthropic, OpenAI y Groq, lo que permite a los usuarios administrar y configurar interacciones de modelos de lenguaje grandes sin problemas.

  1. Prerequisites
    1. Setup
      1. Usage
        ID: 0t8oxsctbq