Skip to main content
Glama

Model Context Protocol (MCP) Server

by hideya

Cliente MCP que utiliza LangChain/Python

Este sencillo cliente de Protocolo de contexto de modelo (MCP) demuestra el uso de las herramientas del servidor MCP por parte de LangChain ReAct Agent.

Aprovecha una función de utilidad convert_mcp_to_langchain_tools() de langchain_mcp_tools .
Esta función maneja la inicialización paralela de múltiples servidores MCP especificados y convierte sus herramientas disponibles en una lista de herramientas compatibles con LangChain ( List[BaseTool] ).

Actualmente se admiten LLM de Anthropic, OpenAI y Groq.

Una versión mecanografiada de este cliente MCP está disponible aquí

Prerrequisitos

  • Python 3.11+
  • [opcional] uv ( uvx ) instalado para ejecutar servidores MCP basados en paquetes Python
  • [opcional] npm 7+ ( npx ) para ejecutar servidores MCP basados en paquetes Node.js
  • Claves API de Anthropic , OpenAI y/o Groq según sea necesario

Configuración

  1. Instalar dependencias:
    make install
  2. Configurar claves API:
    cp .env.template .env
    • Actualice .env según sea necesario.
    • .gitignore está configurado para ignorar .env para evitar confirmaciones accidentales de las credenciales.
  3. Configure los ajustes de los servidores LLM y MCP llm_mcp_config.json5 según sea necesario.
    • El formato del archivo de configuración de los servidores MCP sigue la misma estructura que Claude for Desktop , con una diferencia: el nombre de clave mcpServers se ha cambiado a mcp_servers para seguir la convención snake_case comúnmente utilizada en los archivos de configuración JSON.
    • El formato del archivo es JSON5 , donde se permiten comentarios y comas finales.
    • El formato se amplía aún más para reemplazar las notaciones ${...} con los valores de las variables de entorno correspondientes.
    • Mantenga todas las credenciales y la información privada en el archivo .env y haga referencia a ellas con la notación ${...} según sea necesario.

Uso

Ejecute la aplicación:

make start

La primera vez tarda un poco.

Ejecutar en modo detallado:

make start-v

Ver opciones de la línea de comandos:

make start-h

Cuando se le solicite, puede simplemente presionar Entrar para usar consultas de ejemplo que realizan invocaciones de herramientas de servidor MCP.

Las consultas de ejemplo se pueden configurar en llm_mcp_config.json5

-
security - not tested
A
license - permissive license
-
quality - not tested

Este servidor facilita la invocación de modelos de IA de proveedores como Anthropic, OpenAI y Groq, lo que permite a los usuarios administrar y configurar interacciones de modelos de lenguaje grandes sin problemas.

  1. Prerrequisitos
    1. Configuración
      1. Uso

        Related MCP Servers

        • -
          security
          -
          license
          -
          quality
          A simple server that acts as a Master Control Program (MCP) for unified interaction with OpenAI and Anthropic (Claude) AI models through a single API endpoint.
          Last updated -
        • -
          security
          F
          license
          -
          quality
          A server that allows AI agents to consult multiple large language models (like Grok, Gemini, Claude, GPT-4o) through Model Context Protocol for assistance and information.
          Last updated -
          3
          JavaScript
        • A
          security
          A
          license
          A
          quality
          A server that enables AI assistants to interact with the Omnisend marketing platform, supporting contact management, product management, and event tracking operations through natural language.
          Last updated -
          10
          TypeScript
          Apache 2.0
          • Linux
          • Apple
        • -
          security
          F
          license
          -
          quality
          A unified API server that enables interaction with multiple AI model providers like Anthropic and OpenAI through a consistent interface, supporting chat completions, tool calling, and context handling.
          Last updated -
          JavaScript

        View all related MCP servers

        MCP directory API

        We provide all the information about MCP servers via our MCP API.

        curl -X GET 'https://glama.ai/api/mcp/v1/servers/hideya/mcp-client-langchain-py'

        If you have feedback or need assistance with the MCP directory API, please join our Discord server