Skip to main content
Glama

Yellhorn MCP

by msnidal

イェルホーン MCP

イェルホーンロゴ

モデルコンテキストプロトコル(MCP)サーバーは、Claude CodeにGemini 2.5 ProとOpenAIの機能を公開し、プロンプトでコードベース全体を使用したソフトウェア開発タスクを実行します。このパターンは、Claude Codeなどのコードアシスタントやその他のMCP対応コーディングエージェントが実行する作業を定義し、結果が元の要件を正確に満たしていることを確認するのに非常に役立ちます。

特徴

  • 作業計画の作成: プロンプトに基づいてコードベース全体を考慮した詳細な実装計画を作成し、GitHub の問題として投稿して、コーディング エージェントの MCP リソースとして公開します。
  • コード差分の判断: 完全なコードベースのコンテキストで元の作業計画に対してgitの差分を評価するツールを提供し、詳細なフィードバックを提供し、実装が元の要件から逸脱していないことを確認し、そうするために何を変更すべきかについてのガイダンスを提供します。
  • シームレスなGitHub統合:ラベル付きの問題を自動的に作成し、元の作業計画の問題への参照を含む判断サブ問題を投稿します。
  • コンテキスト制御: .gitignoreと同様に、 .yellhornignoreファイルを使用して、特定のファイルとディレクトリを AI コンテキストから除外します。
  • MCP リソース: 作業計画を標準の MCP リソースとして公開し、簡単に一覧表示および取得できるようにします。

インストール

# Install from PyPI pip install yellhorn-mcp # Install from source git clone https://github.com/msnidal/yellhorn-mcp.git cd yellhorn-mcp pip install -e .

構成

サーバーには次の環境変数が必要です。

  • GEMINI_API_KEY : Gemini API キー (Gemini モデルに必須)
  • OPENAI_API_KEY : OpenAI API キー (OpenAI モデルに必要)
  • REPO_PATH : リポジトリへのパス(デフォルトは現在のディレクトリ)
  • YELLHORN_MCP_MODEL : 使用するモデル(デフォルトは「gemini-2.5-pro-preview-03-25」)。使用可能なオプション:
    • Gemini モデル: 「gemini-2.5-pro-preview-03-25」、「gemini-2.5-flash-preview-04-17」
    • OpenAI モデル: 「gpt-4o」、「gpt-4o-mini」、「o4-mini」、「o3」

サーバーには、GitHub CLI ( gh ) がインストールされ、認証されている必要もあります。

使用法

はじめる

VSCode/カーソル設定

VSCode または Cursor で Yellhorn MCP を構成するには、ワークスペースのルートに次の内容を含む.vscode/mcp.jsonファイルを作成します。

{ "inputs": [ { "type": "promptString", "id": "gemini-api-key", "description": "Gemini API Key" } ], "servers": { "yellhorn-mcp": { "type": "stdio", "command": "/Users/msnidal/.pyenv/shims/yellhorn-mcp", "args": [], "env": { "GEMINI_API_KEY": "${input:gemini-api-key}", "REPO_PATH": "${workspaceFolder}" } } } }
クロード・コードセットアップ

Claude Code を使用して Yellhorn MCP を直接構成するには、次の内容を含むルート レベルの.mcp.jsonファイルをプロジェクトに追加します。

{ "mcpServers": { "yellhorn-mcp": { "type": "stdio", "command": "yellhorn-mcp", "args": ["--model", "o3"], "env": {} } } }

ツール

作業計画を作成する

タイトルと詳細な説明に基づいて、詳細な作業計画を含む GitHub の問題を作成します。

入力:

  • title : GitHub の問題のタイトル (問題のタイトルとヘッダーとして使用されます)
  • detailed_description : 作業計画の詳細な説明
  • codebase_reasoning : (オプション) AI強化を実行するかどうかを制御します。
    • "full" : (デフォルト) AIを使用して、完全なコードベースのコンテキストで作業計画を強化します。
    • "lsp" : 軽量コードベースコンテキストで AI を使用する (Python および Go の関数/メソッドシグネチャ、クラス属性、構造体フィールド)
    • "none" : AI強化をスキップし、提供された説明をそのまま使用します
  • debug : (オプション) trueに設定すると、生成に使用される完全なプロンプトとともに問題にコメントを追加します。

出力:

  • 次の内容を含む JSON 文字列:
    • issue_url : 作成された GitHub の問題への URL
    • issue_number : GitHubの問題番号

作業計画を取得する

作業計画に関連付けられた作業計画コンテンツ (GitHub の問題本体) を取得します。

入力:

  • issue_number : 作業計画の GitHub の問題番号。

出力:

  • 作業計画の問題の内容を文字列として

裁判官の作業計画

GitHub Issue に記載された作業計画と 2 つの Git 参照(ブランチまたはコミット)を比較する非同期コード判定をトリガーします。実行後(バックグラウンドで)、判定結果を含む GitHub サブ Issue を非同期的に作成します。

入力:

  • issue_number : 作業計画の GitHub の問題番号。
  • base_ref : 比較のためのベース Git ref(コミット SHA、ブランチ名、タグ)。デフォルトは「main」です。
  • head_ref : 比較対象となるGitのヘッド参照(コミットSHA、ブランチ名、タグ)。デフォルトは「HEAD」です。
  • codebase_reasoning : (オプション) 提供されるコードベースコンテキストを制御します。
    • "full" : (デフォルト) 完全なコードベースコンテキストを使用する
    • "lsp" : より軽量なコードベースコンテキストを使用します (Python と Go の関数シグネチャのみ、および完全な diff ファイル)
    • "none" : 最速の処理のためにコードベースコンテキストを完全にスキップします
  • debug : (オプション) trueに設定すると、生成に使用される完全なプロンプトを含むコメントがサブ問題に追加されます。

出力:

  • 判断タスクが開始されたことを確認するメッセージ

リソースアクセス

Yellhorn MCP は、作業計画へのアクセスを提供するために標準の MCP リソース API も実装しています。

  • list-resources : すべての作業計画を一覧表示します (yellhorn-mcp ラベルの GitHub の問題)
  • get-resource : 問題番号で特定の作業計画の内容を取得します。

これらには、標準の MCP CLI コマンドを介してアクセスできます。

# List all workplans mcp list-resources yellhorn-mcp # Get a specific workplan by issue number mcp get-resource yellhorn-mcp 123

発達

# Install development dependencies pip install -e ".[dev]" # Run tests pytest # Run tests with coverage report pytest --cov=yellhorn_mcp --cov-report term-missing

CI/CD

このプロジェクトでは、継続的な統合とデプロイメントに GitHub Actions を使用します。

  • テスト: プルリクエストで自動的に実行され、メインブランチにプッシュされます
    • フレーク8で糸くずを落とす
    • 黒でフォーマットチェック
    • pytestを使ったテスト
  • 公開: バージョンタグがプッシュされると、PyPI に自動的に公開されます
    • タグは pyproject.toml のバージョンと一致する必要があります (例: v0.2.2)
    • GitHub リポジトリ シークレットとして保存された PyPI API トークンが必要です (PYPI_API_TOKEN)

新しいバージョンをリリースするには:

  1. pyproject.toml と yellhorn_mcp/__init__.py のバージョンを更新します
  2. CHANGELOG.md を新しい変更内容で更新します
  3. 変更をコミットする: git commit -am "Bump version to XYZ"
  4. コミットにタグを付ける: git tag vX.YZ
  5. 変更をプッシュしてタグ付けする: git push && git push --tags

変更履歴については、変更ログを参照してください。

詳しい手順については、「使用ガイド」を参照してください。

ライセンス

マサチューセッツ工科大学

You must be authenticated.

A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Gemini 2.5 Pro を Claude Code に接続する MCP サーバー。ユーザーはコードベースに基づいて詳細な実装計画を生成し、コード変更に関するフィードバックを受け取ることができます。

  1. 特徴
    1. インストール
      1. 構成
        1. 使用法
          1. はじめる
        2. ツール
          1. 作業計画を作成する
          2. 作業計画を取得する
          3. 裁判官の作業計画
        3. リソースアクセス
          1. 発達
            1. CI/CD
          2. ライセンス

            Related MCP Servers

            • -
              security
              A
              license
              -
              quality
              Model Context Protocol (MCP) server implementation that enables Claude Desktop to interact with Google's Gemini AI models.
              Last updated -
              53
              TypeScript
              MIT License
              • Apple
              • Linux
            • -
              security
              A
              license
              -
              quality
              An MCP server that implements Claude Code-like functionality, allowing the AI to analyze codebases, modify files, execute commands, and manage projects through direct file system interactions.
              Last updated -
              173
              Python
              MIT License
              • Apple
              • Linux
            • -
              security
              -
              license
              -
              quality
              An MCP server implementation that allows using Google's Gemini AI models (specifically Gemini 1.5 Pro) through Claude or other MCP clients via the Model Context Protocol.
              Last updated -
              1
              JavaScript
            • -
              security
              A
              license
              -
              quality
              An MCP server that enables other AI models (like Claude) to use Google's Gemini models as tools for specific tasks through a standardized interface.
              Last updated -
              1
              TypeScript
              MIT License

            View all related MCP servers

            MCP directory API

            We provide all the information about MCP servers via our MCP API.

            curl -X GET 'https://glama.ai/api/mcp/v1/servers/msnidal/yellhorn-mcp'

            If you have feedback or need assistance with the MCP directory API, please join our Discord server