Skip to main content
Glama

Yellhorn MCP

by msnidal

Йеллхорн MCP

Логотип Йеллхорн

Сервер Model Context Protocol (MCP), который предоставляет возможности Gemini 2.5 Pro и OpenAI Claude Code для задач разработки программного обеспечения, используя всю вашу кодовую базу в приглашении. Этот шаблон очень полезен для определения работы, которую должны выполнить помощники по коду, такие как Claude Code или другие MCP-совместимые агенты кодирования, и для проверки результатов, которые точно соответствуют указанным исходным требованиям.

Функции

  • Создание рабочих планов : создание подробных планов внедрения на основе подсказки и с учетом всей вашей кодовой базы, публикация их в виде проблем GitHub и предоставление их в качестве ресурсов MCP для вашего агента по кодированию.
  • Оцените различия в коде : предоставляет инструмент для оценки различий git по сравнению с исходным планом работы с полным контекстом кодовой базы и предоставляет подробную обратную связь, гарантируя, что реализация не отклоняется от исходных требований, и предоставляя указания о том, что нужно изменить, чтобы это сделать.
  • Полная интеграция с GitHub : автоматически создает помеченные проблемы, публикует подпроблемы со ссылками на исходные проблемы рабочего плана
  • Управление контекстом : используйте файлы .yellhornignore для исключения определенных файлов и каталогов из контекста AI, аналогично .gitignore
  • Ресурсы MCP : отображает рабочие планы как стандартные ресурсы MCP для легкого перечисления и поиска.

Установка

# Install from PyPI pip install yellhorn-mcp # Install from source git clone https://github.com/msnidal/yellhorn-mcp.git cd yellhorn-mcp pip install -e .

Конфигурация

Серверу требуются следующие переменные среды:

  • GEMINI_API_KEY : Ваш ключ API Gemini (требуется для моделей Gemini)
  • OPENAI_API_KEY : Ваш ключ API OpenAI (требуется для моделей OpenAI)
  • REPO_PATH : Путь к вашему репозиторию (по умолчанию текущий каталог)
  • YELLHORN_MCP_MODEL : Модель для использования (по умолчанию "gemini-2.5-pro-preview-03-25"). Доступные параметры:
    • Модели Gemini: "gemini-2.5-pro-preview-03-25", "gemini-2.5-flash-preview-04-17"
    • Модели OpenAI: «gpt-4o», «gpt-4o-mini», «o4-mini», «o3».

На сервере также необходимо установить и аутентифицировать GitHub CLI ( gh ).

Использование

Начиная

Настройка VSCode/курсора

Чтобы настроить Yellhorn MCP в VSCode или Cursor, создайте файл .vscode/mcp.json в корне вашего рабочего пространства со следующим содержимым:

{ "inputs": [ { "type": "promptString", "id": "gemini-api-key", "description": "Gemini API Key" } ], "servers": { "yellhorn-mcp": { "type": "stdio", "command": "/Users/msnidal/.pyenv/shims/yellhorn-mcp", "args": [], "env": { "GEMINI_API_KEY": "${input:gemini-api-key}", "REPO_PATH": "${workspaceFolder}" } } } }
Настройка кода Клода

Чтобы настроить Yellhorn MCP напрямую с помощью Claude Code, добавьте в свой проект файл .mcp.json корневого уровня со следующим содержимым:

{ "mcpServers": { "yellhorn-mcp": { "type": "stdio", "command": "yellhorn-mcp", "args": ["--model", "o3"], "env": {} } } }

Инструменты

создать_план_работы

Создает задачу на GitHub с подробным планом работы на основе заголовка и подробного описания.

Вход :

  • title : Название проблемы GitHub (будет использоваться как название и заголовок проблемы)
  • detailed_description : Подробное описание плана работы
  • codebase_reasoning : (необязательно) Управляет выполнением улучшения ИИ:
    • "full" : (по умолчанию) использовать ИИ для улучшения рабочего плана с полным контекстом кодовой базы
    • "lsp" : использование ИИ с облегченным контекстом кодовой базы (сигнатуры функций/методов, атрибуты классов и поля структур для Python и Go)
    • "none" : Пропустить улучшение ИИ, использовать предоставленное описание как есть
  • debug : (необязательно) Если установлено значение true , добавляет комментарий к проблеме с полным запросом, использованным для генерации

Выход :

  • Строка JSON, содержащая:
    • issue_url : URL-адрес созданной проблемы GitHub
    • issue_number : номер проблемы GitHub

получить_план_работы

Извлекает содержимое рабочего плана (текст задачи GitHub), связанное с рабочим планом.

Вход :

  • issue_number : номер проблемы GitHub для рабочего плана.

Выход :

  • Содержание рабочего плана выдается в виде строки

судья_план_работы

Запускает асинхронное суждение о коде, сравнивая два git-рефа (ветки или коммиты) с рабочим планом, описанным в задаче GitHub. Создает подзадачу GitHub с суждением асинхронно после запуска (в фоновом режиме).

Вход :

  • issue_number : номер проблемы GitHub для рабочего плана.
  • base_ref : Базовая ссылка Git (SHA коммита, имя ветки, тег) для сравнения. По умолчанию «main».
  • head_ref : Head Git ref (SHA коммита, имя ветки, тег) для сравнения. По умолчанию «HEAD».
  • codebase_reasoning : (необязательно) Управляет тем, какой контекст кодовой базы предоставляется:
    • "full" : (по умолчанию) Использовать полный контекст кодовой базы
    • "lsp" : использовать более легкий контекст кодовой базы (только сигнатуры функций для Python и Go, а также полные файлы различий)
    • "none" : полностью пропускать контекст кодовой базы для ускорения обработки
  • debug : (необязательно) Если установлено значение true , добавляет комментарий к подзадаче с полным запросом, используемым для генерации

Выход :

  • Подтверждающее сообщение о том, что задача оценки начата

Доступ к ресурсам

Yellhorn MCP также реализует стандартный API ресурсов MCP для предоставления доступа к рабочим планам:

  • list-resources : список всех рабочих планов (проблемы GitHub с меткой yellhorn-mcp)
  • get-resource : Извлекает содержимое определенного рабочего плана по номеру проблемы

Доступ к ним можно получить с помощью стандартных команд MCP CLI:

# List all workplans mcp list-resources yellhorn-mcp # Get a specific workplan by issue number mcp get-resource yellhorn-mcp 123

Разработка

# Install development dependencies pip install -e ".[dev]" # Run tests pytest # Run tests with coverage report pytest --cov=yellhorn_mcp --cov-report term-missing

CI/CD

Проект использует GitHub Actions для непрерывной интеграции и развертывания:

  • Тестирование : автоматически запускается при запросах на извлечение и отправляет изменения в основную ветку.
    • Линтинг с хлопьями8
    • Проверка формата черным цветом
    • Тестирование с помощью pytest
  • Публикация : Автоматическая публикация в PyPI при отправке тега версии.
    • Тег должен соответствовать версии в pyproject.toml (например, v0.2.2)
    • Требуется токен API PyPI, сохраненный как секрет репозитория GitHub (PYPI_API_TOKEN)

Чтобы выпустить новую версию:

  1. Обновите версию в pyproject.toml и yellhorn_mcp/__init__.py
  2. Обновите CHANGELOG.md с новыми изменениями.
  3. Зафиксировать изменения: git commit -am "Bump version to XYZ"
  4. Пометьте коммит: git tag vX.YZ
  5. Отправка изменений и тегов: git push && git push --tags

Историю изменений смотрите в журнале изменений .

Более подробные инструкции см. в Руководстве по использованию .

Лицензия

Массачусетский технологический институт

You must be authenticated.

A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Сервер MCP, который подключает Gemini 2.5 Pro к Claude Code, позволяя пользователям создавать подробные планы внедрения на основе своей кодовой базы и получать отзывы об изменениях кода.

  1. Функции
    1. Установка
      1. Конфигурация
        1. Использование
          1. Начиная
        2. Инструменты
          1. создать\план\работы
          2. получить\план\работы
          3. судья\план\работы
        3. Доступ к ресурсам
          1. Разработка
            1. CI/CD
          2. Лицензия

            Related MCP Servers

            • A
              security
              F
              license
              A
              quality
              An MCP server implementation that leverages Google's Gemini API to provide analytical problem-solving capabilities through sequential thinking steps without code generation.
              Last updated -
              1
              14
              JavaScript
            • -
              security
              A
              license
              -
              quality
              The ultimate Gemini API interface for MCP hosts, intelligently selecting models for the task at hand—delivering optimal performance, minimal token cost, and seamless integration.
              Last updated -
              6
              TypeScript
              MIT License
            • -
              security
              -
              license
              -
              quality
              An MCP server implementation that allows using Google's Gemini AI models (specifically Gemini 1.5 Pro) through Claude or other MCP clients via the Model Context Protocol.
              Last updated -
              1
              JavaScript
            • A
              security
              A
              license
              A
              quality
              A dedicated server that wraps Google's Gemini AI models in a Model Context Protocol (MCP) interface, allowing other LLMs and MCP-compatible systems to access Gemini's capabilities like content generation, function calling, chat, and file handling through standardized tools.
              Last updated -
              16
              3
              TypeScript
              MIT License
              • Linux
              • Apple

            View all related MCP servers

            MCP directory API

            We provide all the information about MCP servers via our MCP API.

            curl -X GET 'https://glama.ai/api/mcp/v1/servers/msnidal/yellhorn-mcp'

            If you have feedback or need assistance with the MCP directory API, please join our Discord server