Skip to main content
Glama

🤖 Servidor MCP OpenAPI

asciicast

Una herramienta de línea de comandos que transforma cualquier servicio OpenAPI en un servidor de Protocolo de contexto de modelo (MCP), lo que permite una integración perfecta con agentes de IA y herramientas que admiten la especificación MCP.

[!NOTA] Esta herramienta aún se encuentra en una etapa temprana de desarrollo. La hoja de ruta está aquí.

¿Qué es el Protocolo de Contexto Modelo (MCP)?

El Protocolo de Contexto de Modelo (MCP) es un protocolo estandarizado para que los agentes de IA interactúen con herramientas y servicios externos. Proporciona una forma consistente para que los modelos de IA descubran, comprendan y utilicen diversas capacidades a través de una interfaz unificada, lo que facilita la creación de aplicaciones basadas en IA que pueden interactuar con múltiples servicios.

Related MCP server: OpenAI MCP Server

¿Qué es OpenAPI?

OpenAPI (anteriormente conocida como Swagger) es una especificación para archivos de interfaz legibles por máquina que describen, producen, consumen y visualizan servicios web RESTful. Permite que tanto humanos como computadoras descubran y comprendan las capacidades de un servicio sin necesidad de acceder al código fuente ni a documentación adicional.

Acerca de este proyecto

Este middleware actúa como puente entre los servicios OpenAPI y los clientes MCP.

  1. Toma un archivo de especificación OpenAPI como entrada

  2. Genera automáticamente un servidor compatible con MCP

  3. Los proxys envían las solicitudes entrantes al servicio OpenAPI real

  4. Traduce entre convenciones MCP y REST

Esto permite que cualquier API REST existente con una especificación OpenAPI sea inmediatamente accesible para los agentes de IA que entienden MCP, sin requerir ninguna modificación en el servicio original.

Instalación

npm install -g openapi-mcp-proxy

Uso

npx openapi-mcp-proxy --spec ./path/to/openapi.yml --target http://your-api.com --port 3000

Opciones

  • -s, --spec <path> (obligatorio): Ruta a su archivo de especificación OpenAPI (env: OMP_OPENAPI_SPEC_FILE )

  • -t, --target <url> (opcional): URL de destino del servicio API (predeterminado: " http://localhost:8080 ", env: OMP_TARGET_BASE_URL )

  • -p, --port <number> (opcional): Puerto donde ejecutar el servidor MCP (predeterminado: "3000", env: PORT )

  • -V, --version : Mostrar el número de versión

  • -h, --help : Mostrar ayuda para el comando

Ejemplo

Inicie un servidor MCP para la API de Petstore

npx openapi-mcp-proxy --spec resources/petstore.openapi.yml --target https://petstore.swagger.io/v2

Pruebas

Inspector de MCP

Para probar su servidor MCP, puede utilizar el Protocolo de contexto de modelo:

  1. Instalar el Inspector MCP:

npx @modelcontextprotocol/inspector
  1. Inicie su servidor MCP

  2. Vaya a la interfaz de usuario del inspector y complete la ruta del servidor correcta que termina en como http://localhost:3000/mcp

  3. Ahora puede interactuar con su servidor MCP. El Inspector MCP le mostrará información detallada sobre las solicitudes y respuestas.

con VS Code

Es más fácil usar esto con el modo de agente integrado de VS Code:

  1. Abra VS Code y habilite el modo agente:

    • Presione Cmd/Ctrl + Shift + P

    • Escribe "Activar/Desactivar el modo de agente de GitHub Copilot".

    • Seleccione "Habilitar"

  2. Agregue su servidor MCP:

    • Presione Cmd/Ctrl + Shift + P

    • Escriba "MCP: agregar servidor"

    • Escriba la URL de su servidor MCP como http://localhost:3000/mcpterminando en

  3. ¡Tu chat copiloto de Github debería aprovechar las nuevas herramientas que tiene!

  4. Ahora puedes interactuar con tu servidor MCP a través de la interfaz del agente de VS Code. Intenta preguntarle "¿cuántas mascotas hay disponibles ahora?".

Para obtener más información sobre cómo usar servidores MCP con VS Code, consulte este

Contribuyendo

¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios. La hoja de ruta está aquí.

Licencia

Instituto Tecnológico de Massachusetts (MIT)

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/JacerOmri/openapi-mcp-proxy'

If you have feedback or need assistance with the MCP directory API, please join our Discord server