Integrations
Servidor MCP con Docker
Este proyecto demuestra cómo integrar el Protocolo de Control de Modelos (MCP) con la API de OpenAI, lo que permite a OpenAI acceder y utilizar herramientas expuestas por un servidor MCP que se ejecuta en Docker.
Prerrequisitos
- Docker instalado en su sistema
- Git (para clonar el repositorio)
Estructura del proyecto
server.py
: La implementación del servidor MCP con una herramientaclient.py
: Un cliente que se conecta al servidor y llama al agenteDockerfile
: Instrucciones para crear la imagen de Dockerrequirements.txt
: Dependencias de Python para el proyecto
Explicación del flujo de datos
- Consulta de usuario : el usuario envía una consulta al sistema (por ejemplo, "¿Cuál es la política de vacaciones de nuestra empresa?")
- API de OpenAI : OpenAI recibe la consulta y las herramientas disponibles del servidor MCP
- Selección de herramientas : OpenAI decide qué herramientas utilizar en función de la consulta
- Cliente MCP : el cliente recibe la solicitud de llamada de herramienta de OpenAI y la reenvía al servidor MCP
- Servidor MCP : el servidor ejecuta la herramienta solicitada (por ejemplo, recuperar datos de la base de conocimientos)
- Flujo de respuesta : el resultado de la herramienta fluye de regreso a través del cliente MCP a OpenAI
- Respuesta final : OpenAI genera una respuesta final que incorpora los datos de la herramienta
Ejecutando con Docker
Paso 1: Construir la imagen de Docker
Paso 2: Ejecutar el contenedor Docker
Esto iniciará el servidor MCP dentro de un contenedor Docker y lo expondrá en el puerto 8050.
Ejecución del cliente
Una vez que el servidor esté en ejecución, puedes ejecutar el cliente en una terminal separada:
El cliente se conectará al servidor, enumerará las herramientas disponibles y llamará al agente para responder la consulta.
Solución de problemas
Si encuentra problemas de conexión:
- Compruebe si el servidor se está ejecutando : asegúrese de que el contenedor Docker se esté ejecutando con
docker ps
. - Verificar la asignación de puertos : asegúrese de que el puerto esté asignado correctamente con
docker ps
o verificando la salida del comandodocker run
. - Comprobar los registros del servidor : vea los registros del servidor con
docker logs <container_id>
para ver si hay algún error. - Enlace de host : El servidor está configurado para enlazarse a
0.0.0.0
en lugar de127.0.0.1
para que sea accesible desde fuera del contenedor. Si el problema persiste, es posible que deba revisar la configuración de su firewall. - Problemas de red : si está ejecutando Docker en una máquina remota, asegúrese de que el puerto sea accesible desde su máquina cliente.
Notas
- El servidor está configurado para utilizar el transporte SSE (eventos enviados por el servidor) y escucha en el puerto 8050.
- El cliente se conecta al servidor en
http://localhost:8050/sse
. - Asegúrese de que el servidor esté ejecutándose antes de iniciar el cliente.
This server cannot be installed
Un proyecto que integra el Protocolo de Control de Modelos con la API de OpenAI, lo que permite a OpenAI acceder y utilizar herramientas expuestas por un servidor MCP dockerizado.
Related MCP Servers
- -securityAlicense-qualityA Model Context Protocol (MCP) server that lets you seamlessly use OpenAI's models right from Claude.Last updated -12428JavaScriptMIT License
- -securityAlicense-qualityA simple MCP server for interacting with OpenAI assistants. This server allows other tools (like Claude Desktop) to create and interact with OpenAI assistants through the Model Context Protocol.Last updated -18PythonMIT License
- AsecurityAlicenseAqualityEnables integration with OpenAI models through the MCP protocol, supporting concise and detailed responses for use with Claude Desktop.Last updated -11PythonMIT License
- -securityFlicense-qualityA Model Context Protocol server implementation that enables connection between OpenAI APIs and MCP clients for coding assistance with features like CLI interaction, web API integration, and tool-based architecture.Last updated -9Python