Skip to main content
Glama

Model Context Protocol (MCP) Server

by hideya

Cliente MCP que utiliza LangChain/Python

Este sencillo cliente de Protocolo de contexto de modelo (MCP) demuestra el uso de las herramientas del servidor MCP por parte de LangChain ReAct Agent.

Aprovecha una función de utilidad convert_mcp_to_langchain_tools() de langchain_mcp_tools .
Esta función maneja la inicialización paralela de múltiples servidores MCP especificados y convierte sus herramientas disponibles en una lista de herramientas compatibles con LangChain ( List[BaseTool] ).

Actualmente se admiten LLM de Anthropic, OpenAI y Groq.

Una versión mecanografiada de este cliente MCP está disponible aquí

Prerrequisitos

  • Python 3.11+
  • [opcional] uv ( uvx ) instalado para ejecutar servidores MCP basados en paquetes Python
  • [opcional] npm 7+ ( npx ) para ejecutar servidores MCP basados en paquetes Node.js
  • Claves API de Anthropic , OpenAI y/o Groq según sea necesario

Configuración

  1. Instalar dependencias:
    make install
  2. Configurar claves API:
    cp .env.template .env
    • Actualice .env según sea necesario.
    • .gitignore está configurado para ignorar .env para evitar confirmaciones accidentales de las credenciales.
  3. Configure los ajustes de los servidores LLM y MCP llm_mcp_config.json5 según sea necesario.
    • El formato del archivo de configuración de los servidores MCP sigue la misma estructura que Claude for Desktop , con una diferencia: el nombre de clave mcpServers se ha cambiado a mcp_servers para seguir la convención snake_case comúnmente utilizada en los archivos de configuración JSON.
    • El formato del archivo es JSON5 , donde se permiten comentarios y comas finales.
    • El formato se amplía aún más para reemplazar las notaciones ${...} con los valores de las variables de entorno correspondientes.
    • Mantenga todas las credenciales y la información privada en el archivo .env y haga referencia a ellas con la notación ${...} según sea necesario.

Uso

Ejecute la aplicación:

make start

La primera vez tarda un poco.

Ejecutar en modo detallado:

make start-v

Ver opciones de la línea de comandos:

make start-h

Cuando se le solicite, puede simplemente presionar Entrar para usar consultas de ejemplo que realizan invocaciones de herramientas de servidor MCP.

Las consultas de ejemplo se pueden configurar en llm_mcp_config.json5

-
security - not tested
A
license - permissive license
-
quality - not tested

Este servidor facilita la invocación de modelos de IA de proveedores como Anthropic, OpenAI y Groq, lo que permite a los usuarios administrar y configurar interacciones de modelos de lenguaje grandes sin problemas.

  1. Prerrequisitos
    1. Configuración
      1. Uso

        Related MCP Servers

        • -
          security
          F
          license
          -
          quality
          This server provides an API to query Large Language Models using context from local files, supporting various models and file types for context-aware responses.
          Last updated -
          1
          TypeScript
        • -
          security
          A
          license
          -
          quality
          A server that enables Large Language Models to discover and interact with REST APIs defined by OpenAPI specifications through the Model Context Protocol.
          Last updated -
          381
          133
          TypeScript
          MIT License
          • Apple
        • -
          security
          F
          license
          -
          quality
          A server that provides rich UI context and interaction capabilities to AI models, enabling deep understanding of user interfaces through visual analysis and precise interaction via Model Context Protocol.
          Last updated -
          53
          Python
          • Linux
          • Apple
        • -
          security
          F
          license
          -
          quality
          A server that allows AI agents to consult multiple large language models (like Grok, Gemini, Claude, GPT-4o) through Model Context Protocol for assistance and information.
          Last updated -
          4
          JavaScript

        View all related MCP servers

        MCP directory API

        We provide all the information about MCP servers via our MCP API.

        curl -X GET 'https://glama.ai/api/mcp/v1/servers/hideya/mcp-client-langchain-py'

        If you have feedback or need assistance with the MCP directory API, please join our Discord server