Skip to main content
Glama

OpenAPI to Model Context Protocol (MCP)

OpenAPI для моделирования контекстного протокола (MCP)

Размер репоПоследний коммитОткрытые вопросыВерсия Python

Прокси-сервер OpenAPI-MCP преобразует спецификации OpenAPI в инструменты MCP, позволяя агентам ИИ получать доступ к внешним API без специальных оболочек!

OpenAPI-MCP

Устранение разрыва между агентами ИИ и внешними API

Прокси-сервер OpenAPI to Model Context Protocol (MCP) устраняет разрыв между агентами ИИ и внешними API, динамически преобразуя спецификации OpenAPI в стандартизированные инструменты , ресурсы и подсказки MCP. Это упрощает интеграцию, устраняя необходимость в пользовательских оболочках API.


Если вы считаете это полезным, пожалуйста, поставьте ему ⭐ на GitHub!


Основные характеристики

  • FastMCP Transport: оптимизирован для stdio , работает «из коробки» с популярными оркестраторами LLM.
  • Интеграция OpenAPI: анализирует и регистрирует операции OpenAPI как вызываемые инструменты.
  • Регистрация ресурсов: автоматически преобразует схемы компонентов OpenAPI в объекты ресурсов с определенными URI.
  • Генерация подсказок: создает контекстные подсказки на основе операций API, помогающие магистрам права использовать API.
  • Поддержка OAuth2: обеспечивает аутентификацию компьютера с помощью потока учетных данных клиента.
  • Поддержка JSON-RPC 2.0: полностью совместимая структура запроса/ответа.
  • Автоматические метаданные: извлекает названия инструментов, сводки и схемы из спецификации OpenAPI.
  • Очищенные имена инструментов: обеспечивают совместимость с ограничениями имен MCP.
  • Гибкий анализ параметров: поддерживает строки запросов (с начальным «?») и несколько вариаций JSON (включая ключи с точками и числовыми значениями).
  • Улучшенная обработка параметров: автоматически преобразует параметры в правильные типы данных.
  • Расширенные метаданные инструмента: включают подробную информацию о параметрах и схемы ответов.

Быстрый старт

Установка

git clone https://github.com/gujord/OpenAPI-MCP.git cd OpenAPI-MCP pip install -r requirements.txt

Конфигурация оркестратора LLM

Для Claude Desktop , Cursor и Windsurf используйте приведенный ниже фрагмент и соответствующим образом измените пути:

{ "mcpServers": { "petstore3": { "command": "full_path_to_openapi_mcp/venv/bin/python", "args": ["full_path_to_openapi_mcp/src/server.py"], "env": { "SERVER_NAME": "petstore3", "OPENAPI_URL": "https://petstore3.swagger.io/api/v3/openapi.json" }, "transport": "stdio" } } }

Примените эту конфигурацию к следующим файлам:

  • Курсор: ~/.cursor/mcp.json
  • Виндсерфинг: ~/.codeium/windsurf/mcp_config.json
  • Рабочий стол Клода: ~/Library/Application Support/Claude/claude_desktop_config.json

Замените full_path_to_openapi_mcp на фактический путь установки.

Конфигурация среды

ПеременнаяОписаниеНеобходимыйПо умолчанию
OPENAPI_URLURL-адрес спецификации OpenAPIДа-
SERVER_NAMEИмя сервера MCPНетopenapi_proxy_server
OAUTH_CLIENT_IDИдентификатор клиента OAuthНет-
OAUTH_CLIENT_SECRETСекрет клиента OAuthНет-
OAUTH_TOKEN_URLURL конечной точки токена OAuthНет-
OAUTH_SCOPEОбласть действия OAuthНетapi

Как это работает

  1. Анализирует спецификацию OpenAPI: загружает спецификацию OpenAPI с помощью httpx и PyYAML при необходимости.
  2. Регистрирует операции: извлекает операции API и генерирует MCP-совместимые инструменты с надлежащими схемами ввода и ответа.
  3. Регистрация ресурсов: автоматически преобразует схемы компонентов OpenAPI в объекты ресурсов с назначенными URI (например, /resource/{name} ).
  4. Генерация подсказок: создает контекстные подсказки на основе операций API, чтобы помочь магистрам уровня магистра понять использование API.
  5. Аутентификация: поддерживает аутентификацию OAuth2 через поток учетных данных клиента.
  6. Обработка параметров: преобразует параметры в требуемые типы данных и поддерживает гибкие форматы строк запросов и JSON.
  7. Соответствие JSON-RPC 2.0: обеспечивает стандартные протоколы связи для взаимодействия инструментов.

Ресурсы и подсказки

Помимо инструментов, прокси-сервер теперь автоматически регистрирует:

  • Ресурсы: полученные из схем компонентов OpenAPI, объекты ресурсов регистрируются с определенными URI (например, /resource/{name} ) для структурированной обработки данных.
  • Подсказки: Контекстные подсказки генерируются на основе операций API, чтобы предоставить LLM-специалистам руководство по использованию, улучшая их понимание доступных конечных точек.

Эти расширенные метаданные улучшают интеграцию, предоставляя полный контекст API.

OpenAPI-MCP

Внося вклад

  • Сделайте форк этого репозитория.
  • Создайте новую ветку.
  • Отправьте запрос на извлечение с четким описанием ваших изменений.

Лицензия

Лицензия Массачусетского технологического института

Если вы считаете это полезным, пожалуйста, поставьте ему ⭐ на GitHub!

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Прокси-сервер, который связывает агентов ИИ и внешние API, динамически преобразуя спецификации OpenAPI в стандартизированные инструменты MCP, обеспечивая бесперебойное взаимодействие без специального кода интеграции.

  1. Устранение разрыва между агентами ИИ и внешними API
    1. Основные характеристики
      1. Быстрый старт
        1. Установка
      2. Конфигурация оркестратора LLM
        1. Конфигурация среды
      3. Как это работает
        1. Ресурсы и подсказки
          1. Внося вклад
            1. Лицензия

              Related MCP Servers

              • A
                security
                A
                license
                A
                quality
                An MCP server that generates AI agent tools from Postman collections and requests. This server integrates with the Postman API to convert API endpoints into type-safe code that can be used with various AI frameworks.
                Last updated -
                1
                12
                JavaScript
                MIT License
              • -
                security
                A
                license
                -
                quality
                A proxy server that enables AI assistants to run and interact with command-line applications like Expo through the Model Context Protocol (MCP), capturing logs and allowing keypress forwarding.
                Last updated -
                11
                9
                TypeScript
                MIT License
              • -
                security
                A
                license
                -
                quality
                A command-line tool that transforms any OpenAPI service into a Model Context Protocol (MCP) server, enabling seamless integration with AI agents and tools that support the MCP specification.
                Last updated -
                3
                5
                TypeScript
                MIT License
              • -
                security
                F
                license
                -
                quality
                A dynamic proxy that converts OpenAPI Specification (OAS) endpoints into Message Communication Protocol (MCP) tools, allowing AI agents to use existing REST APIs as if they were native MCP tools without manual implementation.
                Last updated -
                16
                TypeScript

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/gujord/OpenAPI-MCP'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server