Skip to main content
Glama

OpenAPI to Model Context Protocol (MCP)

OpenAPI zum Model Context Protocol (MCP)

Repo-GrößeLetzter CommitOffene ProblemePython-Version

Der OpenAPI-MCP-Proxy übersetzt OpenAPI-Spezifikationen in MCP-Tools und ermöglicht KI-Agenten den Zugriff auf externe APIs ohne benutzerdefinierte Wrapper!

OpenAPI-MCP

Überbrücken Sie die Lücke zwischen KI-Agenten und externen APIs

Der OpenAPI-zu-Model-Context-Protocol-(MCP)-Proxyserver schließt die Lücke zwischen KI-Agenten und externen APIs, indem er OpenAPI-Spezifikationen dynamisch in standardisierte MCP-Tools , -Ressourcen und -Eingabeaufforderungen übersetzt. Dies vereinfacht die Integration, da keine benutzerdefinierten API-Wrapper mehr erforderlich sind.


Wenn Sie es nützlich finden, geben Sie ihm bitte ein ⭐ auf GitHub!


Hauptmerkmale

  • FastMCP-Transport: Optimiert für stdio , funktioniert sofort mit gängigen LLM-Orchestratoren.
  • OpenAPI-Integration: Analysiert und registriert OpenAPI-Operationen als aufrufbare Tools.
  • Ressourcenregistrierung: Konvertiert OpenAPI-Komponentenschemata automatisch in Ressourcenobjekte mit definierten URIs.
  • Eingabeaufforderungsgenerierung: Generiert kontextbezogene Eingabeaufforderungen basierend auf API-Operationen, um LLMs bei der Verwendung der API anzuleiten.
  • OAuth2-Unterstützung: Verarbeitet die Maschinenauthentifizierung über den Client Credentials Flow.
  • JSON-RPC 2.0-Unterstützung: Vollständig konforme Anforderungs-/Antwortstruktur.
  • Automatische Metadaten: Leitet Toolnamen, Zusammenfassungen und Schemata aus der OpenAPI-Spezifikation ab.
  • Bereinigte Tool-Namen: Stellt die Kompatibilität mit MCP-Namensbeschränkungen sicher.
  • Flexibles Parameter-Parsing: Unterstützt Abfragezeichenfolgen (mit einem vorangestellten „?“) und mehrere JSON-Varianten (einschließlich Schlüssel mit Punkten und numerischen Werten).
  • Verbesserte Parameterverarbeitung: Konvertiert Parameter automatisch in die richtigen Datentypen.
  • Erweiterte Tool-Metadaten: Enthält detaillierte Parameterinformationen und Antwortschemata.

Schnellstart

Installation

git clone https://github.com/gujord/OpenAPI-MCP.git cd OpenAPI-MCP pip install -r requirements.txt

LLM Orchestrator-Konfiguration

Verwenden Sie für Claude Desktop , Cursor und Windsurf den folgenden Codeausschnitt und passen Sie die Pfade entsprechend an:

{ "mcpServers": { "petstore3": { "command": "full_path_to_openapi_mcp/venv/bin/python", "args": ["full_path_to_openapi_mcp/src/server.py"], "env": { "SERVER_NAME": "petstore3", "OPENAPI_URL": "https://petstore3.swagger.io/api/v3/openapi.json" }, "transport": "stdio" } } }

Wenden Sie diese Konfiguration auf die folgenden Dateien an:

  • Cursor: ~/.cursor/mcp.json
  • Windsurfen: ~/.codeium/windsurf/mcp_config.json
  • Claude Desktop: ~/Library/Application Support/Claude/claude_desktop_config.json

Ersetzen Sie full_path_to_openapi_mcp durch Ihren tatsächlichen Installationspfad.

Umgebungskonfiguration

VariableBeschreibungErforderlichStandard
OPENAPI_URLURL zur OpenAPI-SpezifikationJa-
SERVER_NAMEMCP-ServernameNEINopenapi_proxy_server
OAUTH_CLIENT_IDOAuth-Client-IDNEIN-
OAUTH_CLIENT_SECRETOAuth-Client-GeheimnisNEIN-
OAUTH_TOKEN_URLOAuth-Token-Endpunkt-URLNEIN-
OAUTH_SCOPEOAuth-BereichNEINapi

Wie es funktioniert

  1. Analysiert OpenAPI-Spezifikation: Lädt die OpenAPI-Spezifikation bei Bedarf mit httpx und PyYAML .
  2. Registriert Vorgänge: Extrahiert API-Vorgänge und generiert MCP-kompatible Tools mit entsprechenden Eingabe- und Antwortschemata.
  3. Ressourcenregistrierung: Konvertiert OpenAPI-Komponentenschemata automatisch in Ressourcenobjekte mit zugewiesenen URIs (z. B. /resource/{name} ).
  4. Eingabeaufforderungsgenerierung: Erstellt kontextbezogene Eingabeaufforderungen basierend auf API-Operationen, um LLMs beim Verständnis der API-Nutzung zu unterstützen.
  5. Authentifizierung: Unterstützt die OAuth2-Authentifizierung über den Client Credentials Flow.
  6. Parameterverarbeitung: Konvertiert Parameter in erforderliche Datentypen und unterstützt flexible Abfragezeichenfolgen- und JSON-Formate.
  7. JSON-RPC 2.0-Konformität: Stellt standardmäßige Kommunikationsprotokolle für Tool-Interaktionen sicher.

Ressourcen und Eingabeaufforderungen

Zusätzlich zu den Tools registriert der Proxyserver jetzt automatisch:

  • Ressourcen: Abgeleitet von OpenAPI-Komponentenschemata werden Ressourcenobjekte mit definierten URIs (z. B. /resource/{name} ) für die strukturierte Datenverarbeitung registriert.
  • Eingabeaufforderungen: Kontextbezogene Eingabeaufforderungen werden basierend auf API-Operationen generiert, um LLMs Nutzungshinweise zu geben und ihr Verständnis der verfügbaren Endpunkte zu verbessern.

Diese erweiterten Metadaten verbessern die Integration, indem sie einen umfassenden API-Kontext bereitstellen.

OpenAPI-MCP

Beitragen

  • Forken Sie dieses Repository.
  • Erstellen Sie einen neuen Zweig.
  • Senden Sie eine Pull-Anfrage mit einer klaren Beschreibung Ihrer Änderungen.

Lizenz

MIT-Lizenz

Wenn Sie es nützlich finden, geben Sie ihm bitte ein ⭐ auf GitHub!

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Ein Proxyserver, der KI-Agenten und externe APIs verbindet, indem er OpenAPI-Spezifikationen dynamisch in standardisierte MCP-Tools übersetzt und so eine nahtlose Interaktion ohne benutzerdefinierten Integrationscode ermöglicht.

  1. Überbrücken Sie die Lücke zwischen KI-Agenten und externen APIs
    1. Hauptmerkmale
      1. Schnellstart
        1. Installation
      2. LLM Orchestrator-Konfiguration
        1. Umgebungskonfiguration
      3. Wie es funktioniert
        1. Ressourcen und Eingabeaufforderungen
          1. Beitragen
            1. Lizenz

              Related MCP Servers

              • A
                security
                A
                license
                A
                quality
                An MCP server that generates AI agent tools from Postman collections and requests. This server integrates with the Postman API to convert API endpoints into type-safe code that can be used with various AI frameworks.
                Last updated -
                1
                12
                JavaScript
                MIT License
              • -
                security
                A
                license
                -
                quality
                A proxy server that enables AI assistants to run and interact with command-line applications like Expo through the Model Context Protocol (MCP), capturing logs and allowing keypress forwarding.
                Last updated -
                11
                9
                TypeScript
                MIT License
              • -
                security
                A
                license
                -
                quality
                A command-line tool that transforms any OpenAPI service into a Model Context Protocol (MCP) server, enabling seamless integration with AI agents and tools that support the MCP specification.
                Last updated -
                3
                5
                TypeScript
                MIT License
              • -
                security
                F
                license
                -
                quality
                A dynamic proxy that converts OpenAPI Specification (OAS) endpoints into Message Communication Protocol (MCP) tools, allowing AI agents to use existing REST APIs as if they were native MCP tools without manual implementation.
                Last updated -
                16
                TypeScript

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/gujord/OpenAPI-MCP'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server