Skip to main content
Glama

OpenAPI to Model Context Protocol (MCP)

OpenAPI zum Model Context Protocol (MCP)

Repo-GrößeLetzter CommitOffene ProblemePython-Version

Der OpenAPI-MCP-Proxy übersetzt OpenAPI-Spezifikationen in MCP-Tools und ermöglicht KI-Agenten den Zugriff auf externe APIs ohne benutzerdefinierte Wrapper!

OpenAPI-MCP

Überbrücken Sie die Lücke zwischen KI-Agenten und externen APIs

Der OpenAPI-zu-Model-Context-Protocol-(MCP)-Proxyserver schließt die Lücke zwischen KI-Agenten und externen APIs, indem er OpenAPI-Spezifikationen dynamisch in standardisierte MCP-Tools , -Ressourcen und -Eingabeaufforderungen übersetzt. Dies vereinfacht die Integration, da keine benutzerdefinierten API-Wrapper mehr erforderlich sind.


Wenn Sie es nützlich finden, geben Sie ihm bitte ein ⭐ auf GitHub!


Hauptmerkmale

  • FastMCP-Transport: Optimiert für stdio , funktioniert sofort mit gängigen LLM-Orchestratoren.
  • OpenAPI-Integration: Analysiert und registriert OpenAPI-Operationen als aufrufbare Tools.
  • Ressourcenregistrierung: Konvertiert OpenAPI-Komponentenschemata automatisch in Ressourcenobjekte mit definierten URIs.
  • Eingabeaufforderungsgenerierung: Generiert kontextbezogene Eingabeaufforderungen basierend auf API-Operationen, um LLMs bei der Verwendung der API anzuleiten.
  • OAuth2-Unterstützung: Verarbeitet die Maschinenauthentifizierung über den Client Credentials Flow.
  • JSON-RPC 2.0-Unterstützung: Vollständig konforme Anforderungs-/Antwortstruktur.
  • Automatische Metadaten: Leitet Toolnamen, Zusammenfassungen und Schemata aus der OpenAPI-Spezifikation ab.
  • Bereinigte Tool-Namen: Stellt die Kompatibilität mit MCP-Namensbeschränkungen sicher.
  • Flexibles Parameter-Parsing: Unterstützt Abfragezeichenfolgen (mit einem vorangestellten „?“) und mehrere JSON-Varianten (einschließlich Schlüssel mit Punkten und numerischen Werten).
  • Verbesserte Parameterverarbeitung: Konvertiert Parameter automatisch in die richtigen Datentypen.
  • Erweiterte Tool-Metadaten: Enthält detaillierte Parameterinformationen und Antwortschemata.

Schnellstart

Installation

git clone https://github.com/gujord/OpenAPI-MCP.git cd OpenAPI-MCP pip install -r requirements.txt

LLM Orchestrator-Konfiguration

Verwenden Sie für Claude Desktop , Cursor und Windsurf den folgenden Codeausschnitt und passen Sie die Pfade entsprechend an:

{ "mcpServers": { "petstore3": { "command": "full_path_to_openapi_mcp/venv/bin/python", "args": ["full_path_to_openapi_mcp/src/server.py"], "env": { "SERVER_NAME": "petstore3", "OPENAPI_URL": "https://petstore3.swagger.io/api/v3/openapi.json" }, "transport": "stdio" } } }

Wenden Sie diese Konfiguration auf die folgenden Dateien an:

  • Cursor: ~/.cursor/mcp.json
  • Windsurfen: ~/.codeium/windsurf/mcp_config.json
  • Claude Desktop: ~/Library/Application Support/Claude/claude_desktop_config.json

Ersetzen Sie full_path_to_openapi_mcp durch Ihren tatsächlichen Installationspfad.

Umgebungskonfiguration

VariableBeschreibungErforderlichStandard
OPENAPI_URLURL zur OpenAPI-SpezifikationJa-
SERVER_NAMEMCP-ServernameNEINopenapi_proxy_server
OAUTH_CLIENT_IDOAuth-Client-IDNEIN-
OAUTH_CLIENT_SECRETOAuth-Client-GeheimnisNEIN-
OAUTH_TOKEN_URLOAuth-Token-Endpunkt-URLNEIN-
OAUTH_SCOPEOAuth-BereichNEINapi

Wie es funktioniert

  1. Analysiert OpenAPI-Spezifikation: Lädt die OpenAPI-Spezifikation bei Bedarf mit httpx und PyYAML .
  2. Registriert Vorgänge: Extrahiert API-Vorgänge und generiert MCP-kompatible Tools mit entsprechenden Eingabe- und Antwortschemata.
  3. Ressourcenregistrierung: Konvertiert OpenAPI-Komponentenschemata automatisch in Ressourcenobjekte mit zugewiesenen URIs (z. B. /resource/{name} ).
  4. Eingabeaufforderungsgenerierung: Erstellt kontextbezogene Eingabeaufforderungen basierend auf API-Operationen, um LLMs beim Verständnis der API-Nutzung zu unterstützen.
  5. Authentifizierung: Unterstützt die OAuth2-Authentifizierung über den Client Credentials Flow.
  6. Parameterverarbeitung: Konvertiert Parameter in erforderliche Datentypen und unterstützt flexible Abfragezeichenfolgen- und JSON-Formate.
  7. JSON-RPC 2.0-Konformität: Stellt standardmäßige Kommunikationsprotokolle für Tool-Interaktionen sicher.

Ressourcen und Eingabeaufforderungen

Zusätzlich zu den Tools registriert der Proxyserver jetzt automatisch:

  • Ressourcen: Abgeleitet von OpenAPI-Komponentenschemata werden Ressourcenobjekte mit definierten URIs (z. B. /resource/{name} ) für die strukturierte Datenverarbeitung registriert.
  • Eingabeaufforderungen: Kontextbezogene Eingabeaufforderungen werden basierend auf API-Operationen generiert, um LLMs Nutzungshinweise zu geben und ihr Verständnis der verfügbaren Endpunkte zu verbessern.

Diese erweiterten Metadaten verbessern die Integration, indem sie einen umfassenden API-Kontext bereitstellen.

OpenAPI-MCP

Beitragen

  • Forken Sie dieses Repository.
  • Erstellen Sie einen neuen Zweig.
  • Senden Sie eine Pull-Anfrage mit einer klaren Beschreibung Ihrer Änderungen.

Lizenz

MIT-Lizenz

Wenn Sie es nützlich finden, geben Sie ihm bitte ein ⭐ auf GitHub!

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Ein Proxyserver, der KI-Agenten und externe APIs verbindet, indem er OpenAPI-Spezifikationen dynamisch in standardisierte MCP-Tools übersetzt und so eine nahtlose Interaktion ohne benutzerdefinierten Integrationscode ermöglicht.

  1. Überbrücken Sie die Lücke zwischen KI-Agenten und externen APIs
    1. Hauptmerkmale
      1. Schnellstart
        1. Installation
      2. LLM Orchestrator-Konfiguration
        1. Umgebungskonfiguration
      3. Wie es funktioniert
        1. Ressourcen und Eingabeaufforderungen
          1. Beitragen
            1. Lizenz

              Related MCP Servers

              • -
                security
                A
                license
                -
                quality
                This tool creates a Model Context Protocol (MCP) server that acts as a proxy for any API that has an OpenAPI v3.1 specification. This allows you to use Claude Desktop to easily interact with both local and remote server APIs.
                Last updated -
                176
                641
                JavaScript
                MIT License
                • Apple
                • Linux
              • -
                security
                -
                license
                -
                quality
                A simple server that acts as a Master Control Program (MCP) for unified interaction with OpenAI and Anthropic (Claude) AI models through a single API endpoint.
                Last updated -
              • -
                security
                A
                license
                -
                quality
                A command-line tool that transforms any OpenAPI service into a Model Context Protocol (MCP) server, enabling seamless integration with AI agents and tools that support the MCP specification.
                Last updated -
                90
                2
                TypeScript
                MIT License
              • -
                security
                A
                license
                -
                quality
                A tool that creates MCP (Model Context Protocol) servers from OpenAPI/Swagger specifications, enabling AI assistants to interact with your APIs.
                Last updated -
                47
                9
                TypeScript
                MIT License
                • Apple

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/gujord/OpenAPI-MCP'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server