OpenAPI MCP Server

Integrations

  • Uses environment variables for configuration management, allowing users to specify API endpoints, credentials, and other settings through a .env file.

  • Leverages Pydantic for data validation and parsing of API request/response models defined in OpenAPI specifications.

  • Enables interaction with RESTful APIs defined in Swagger/OpenAPI specifications, supporting GET, PUT, POST, and PATCH operations. The example demonstrates integration with the Swagger Petstore API, including operations like addPet, updatePet, and findPetsByStatus.

Servidor MCP de OpenAPI

Descripción general

  • Este proyecto instalará MCP - Model Context Protocol Server , que proporciona API REST configuradas como contexto para LLM.
  • Al usar esto podemos permitir que los LLM interactúen con RestAPI y realicen llamadas a la API REST usando indicaciones de LLM.
  • Actualmente admitimos llamadas API HTTP GET/PUT/POST/PATCH .

Instalación

  • Instalar paquete
    pip install openapi_mcp_server
  • Cree un archivo .env en una carpeta con los valores mínimos para OPENAPI_SPEC_PATH y API_BASE_URL . Archivo de muestra disponible aquí.
  • Pruebe el servidor openapi_mcp_server usando uv run openapi_mcp_server desde la carpeta anterior.

Escritorio de Claud

  • Detalles de configuración para Claud Desktop
    { "mcpServers": { "openapi_mcp_server":{ "command": "uv", "args": ["run","openapi_mcp_server"] "env": { "DEBUG":"1", "API_BASE_URL":"https://petstore.swagger.io/v2", "OPENAPI_SPEC_PATH":"https://petstore.swagger.io/v2/swagger.json", "API_HEADERS":"Accept:application/json", "API_WHITE_LIST":"addPet,updatePet,findPetsByStatus" } } } }

Configuración

  • Lista de variables de entorno disponibles
    • DEBUG : Habilitar el registro de depuración (el valor predeterminado opcional es Falso)
    • OPENAPI_SPEC_PATH : Ruta al documento OpenAPI. (obligatorio)
    • API_BASE_URL : URL base para las solicitudes de API. (obligatorio)
    • API_HEADERS : Encabezados para incluir en las solicitudes de API (opcional)
    • API_WHITE_LIST : ID de operación de la lista blanca en formato de lista ["operationId1", "operationId2"] (opcional)
    • API_BLACK_LIST : ID de operación en lista negra en formato de lista ["operationId3", "operationId4"] (opcional)
    • HTTP_PROXY : Detalles del proxy HTTP (opcional)
    • HTTPS_PROXY : Detalles del proxy HTTPS (opcional)
    • NO_PROXY : Sin detalles de proxy (opcional)

Contribuyendo

Las contribuciones son bienvenidas.
No dudes en enviar una solicitud de extracción.

Licencia

Este proyecto está licenciado bajo los términos de la licencia MIT.

Estrellas de Github

Apéndice

UV

mkdir -m777 openapi_mcp_server cd openapi_mcp_server uv init uv add mcp[cli] pydantic python-dotenv requests uv add --dev twine setuptools uv sync uv run openapi_mcp_server uv build pip install --force-reinstall --no-deps .\dist\openapi_mcp_server-*fileversion*.whl export TWINE_USERNAME="rahgadda" export TWINE_USERNAME="<<API Key>>" uv run twine upload --verbose dist/*

Referencia

-
security - not tested
A
license - permissive license
-
quality - not tested

Un servidor de protocolo de contexto de modelo que permite a los LLM interactuar con llamadas API REST y ejecutarlas a través de indicaciones en lenguaje natural, admitiendo operaciones GET/PUT/POST/PATCH en API configuradas.

  1. Overview
    1. Installation
      1. Claud Desktop
        1. Configuration
      2. Contributing
        1. License
          1. Github Stars
            1. Appendix
              1. UV
            2. Reference
              ID: 1lurw1271g