Integrations
Embeds a terminal recording demonstration of the MCP server functionality
References GitHub for the project roadmap and contribution process
Enables GitHub Copilot to interact with OpenAPI services through the MCP server, allowing Copilot to use tools defined by the OpenAPI specification
🤖 Servidor MCP OpenAPI
Una herramienta de línea de comandos que transforma cualquier servicio OpenAPI en un servidor de Protocolo de contexto de modelo (MCP), lo que permite una integración perfecta con agentes de IA y herramientas que admiten la especificación MCP.
[!NOTA] Esta herramienta aún se encuentra en una etapa temprana de desarrollo. La hoja de ruta está aquí.
¿Qué es el Protocolo de Contexto Modelo (MCP)?
El Protocolo de Contexto de Modelo (MCP) es un protocolo estandarizado para que los agentes de IA interactúen con herramientas y servicios externos. Proporciona una forma consistente para que los modelos de IA descubran, comprendan y utilicen diversas capacidades a través de una interfaz unificada, lo que facilita la creación de aplicaciones basadas en IA que pueden interactuar con múltiples servicios.
¿Qué es OpenAPI?
OpenAPI (anteriormente conocida como Swagger) es una especificación para archivos de interfaz legibles por máquina que describen, producen, consumen y visualizan servicios web RESTful. Permite que tanto humanos como computadoras descubran y comprendan las capacidades de un servicio sin necesidad de acceder al código fuente ni a documentación adicional.
Acerca de este proyecto
Este middleware actúa como puente entre los servicios OpenAPI y los clientes MCP.
- Toma un archivo de especificación OpenAPI como entrada
- Genera automáticamente un servidor compatible con MCP
- Los proxys envían las solicitudes entrantes al servicio OpenAPI real
- Traduce entre convenciones MCP y REST
Esto permite que cualquier API REST existente con una especificación OpenAPI sea inmediatamente accesible para los agentes de IA que entienden MCP, sin requerir ninguna modificación en el servicio original.
Instalación
Uso
Opciones
-s, --spec <path>
(obligatorio): Ruta a su archivo de especificación OpenAPI (env:OMP_OPENAPI_SPEC_FILE
)-t, --target <url>
(opcional): URL de destino del servicio API (predeterminado: " http://localhost:8080 ", env:OMP_TARGET_BASE_URL
)-p, --port <number>
(opcional): Puerto donde ejecutar el servidor MCP (predeterminado: "3000", env:PORT
)-V, --version
: Mostrar el número de versión-h, --help
: Mostrar ayuda para el comando
Ejemplo
Inicie un servidor MCP para la API de Petstore
Pruebas
Inspector de MCP
Para probar su servidor MCP, puede utilizar el Protocolo de contexto de modelo:
- Instalar el Inspector MCP:
- Inicie su servidor MCP
- Vaya a la interfaz de usuario del inspector y complete la ruta del servidor correcta que termina en
/mcp
comohttp://localhost:3000/mcp
- Ahora puede interactuar con su servidor MCP. El Inspector MCP le mostrará información detallada sobre las solicitudes y respuestas.
con VS Code
Es más fácil usar esto con el modo de agente integrado de VS Code:
- Abra VS Code y habilite el modo agente:
- Presione
Cmd/Ctrl + Shift + P
- Escribe "Activar/Desactivar el modo de agente de GitHub Copilot".
- Seleccione "Habilitar"
- Presione
- Agregue su servidor MCP:
- Presione
Cmd/Ctrl + Shift + P
- Escriba "MCP: agregar servidor"
- Escriba la URL de su servidor MCP como
http://localhost:3000/mcp
terminando en/mcp
- Presione
- ¡Tu chat copiloto de Github debería aprovechar las nuevas herramientas que tiene!
- Ahora puedes interactuar con tu servidor MCP a través de la interfaz del agente de VS Code. Intenta preguntarle "¿cuántas mascotas hay disponibles ahora?".
Para obtener más información sobre cómo usar servidores MCP con VS Code, consulte este
Contribuyendo
¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios. La hoja de ruta está aquí.
Licencia
Instituto Tecnológico de Massachusetts (MIT)
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Una herramienta de línea de comandos que transforma cualquier servicio OpenAPI en un servidor de Protocolo de contexto de modelo (MCP), lo que permite una integración perfecta con agentes de IA y herramientas que admiten la especificación MCP.
Related MCP Servers
- -securityAlicense-qualityAn MCP server that exposes HTTP methods defined in an OpenAPI specification as tools, enabling interaction with APIs via the Model Context Protocol.Last updated -2PythonMIT License
Open-Ledger-MCP-Serverofficial
-securityAlicense-qualityA Model Context Protocol (MCP) server implementation for the OpenLedger API. This server provides structured context to AI models according to the MCP specification.Last updated -8TypeScriptApache 2.0- -securityFlicense-qualityA Model Context Protocol server implementation that enables connection between OpenAI APIs and MCP clients for coding assistance with features like CLI interaction, web API integration, and tool-based architecture.Last updated -9Python
- -securityAlicense-qualityA zero-configuration tool that automatically converts FastAPI endpoints into Model Context Protocol (MCP) tools, enabling AI systems to interact with your API through natural language.Last updated -1PythonMIT License