Skip to main content
Glama

Consult7 MCPサーバー

Consult7は、OpenRouterを介して大規模コンテキストウィンドウモデルに相談し、現在のエージェントのコンテキスト制限を超える広範なファイルコレクション(コードベース全体、ドキュメントリポジトリ、または混合コンテンツ)を分析できるようにするModel Context Protocol(MCP)サーバーです。

なぜConsult7なのか?

Consult7を使用すると、MCP互換のエージェントであれば、ファイル分析を大規模コンテキストモデル(最大200万トークン)にオフロードできます。以下のような場合に役立ちます:

  • エージェントの現在のコンテキストがいっぱいになった場合

  • タスクに専門的なモデル機能が必要な場合

  • 大規模なコードベースを単一のクエリで分析する必要がある場合

  • 異なるモデルの結果を比較したい場合

「Claude Codeユーザーにとって、Consult7はゲームチェンジャーです。」

仕組み

Consult7は、指定されたパスからファイル(ファイル名にワイルドカードを使用可能)を収集し、単一のコンテキストにまとめて、クエリとともに大規模コンテキストウィンドウモデルに送信します。その結果は、作業中のエージェントに直接フィードバックされます。

使用例

コードベースのクイックサマリー

  • ファイル: ["/Users/john/project/src/*.py", "/Users/john/project/lib/*.py"]

  • クエリ: "このPythonプロジェクトのアーキテクチャと主要コンポーネントを要約してください"

  • モデル: "google/gemini-3-flash-preview"

  • モード: "fast"

推論を伴う詳細な分析

  • ファイル: ["/Users/john/webapp/src/*.py", "/Users/john/webapp/auth/*.py", "/Users/john/webapp/api/*.js"]

  • クエリ: "このコードベース全体の認証フローを分析してください。セキュリティの脆弱性についてステップバイステップで考え、改善案を提案してください"

  • モデル: "anthropic/claude-opus-4.7"

  • モード: "think"

ファイルに保存されるレポートの生成

  • ファイル: ["/Users/john/project/src/*.py", "/Users/john/project/tests/*.py"]

  • クエリ: "アーキテクチャ分析、コード品質評価、改善の推奨事項を含む包括的なコードレビューレポートを作成してください"

  • モデル: "google/gemini-2.5-pro"

  • モード: "think"

  • 出力ファイル: "/Users/john/reports/code_review.md"

  • 結果: エージェントのコンテキストを溢れさせる代わりに、"Result has been saved to /Users/john/reports/code_review.md"を返します

特集:Gemini 3.1モデル

Consult7はGoogleのGemini 3.1ファミリーをサポートしています:

  • Gemini 3.1 Pro (google/gemini-3.1-pro-preview) - フラッグシップ推論モデル、1Mコンテキスト

  • Gemini 3 Flash (google/gemini-3-flash-preview) - 超高速モデル、1Mコンテキスト

  • Gemini 3.1 Flash Lite (google/gemini-3.1-flash-lite-preview) - 超高速ライトモデル、1Mコンテキスト

パワーユーザー向けのクイックニーモニック:

  • gemt = Gemini 3.1 Pro + think(フラッグシップ推論)

  • gemf = Gemini 3 Flash + fast(超高速)

  • gptt = GPT-5.5 + think(最新のGPT)

  • grot = Grok 4.20 + think(自動推論)

  • oput = Claude Opus 4.7 + think(適応型思考)

  • ULTRA = GEMT、GPTT、GROT、OPUTを並列実行(4つのフロンティアモデル)

これらのニーモニックを使用すると、クエリ内でモデルとモードの組み合わせを簡単に参照できます。

インストール

Claude Code

単に以下を実行してください:

claude mcp add -s user consult7 uvx -- consult7 your-openrouter-api-key

Claude Desktop

Claude Desktopの設定ファイルに追加してください:

{
  "mcpServers": {
    "consult7": {
      "type": "stdio",
      "command": "uvx",
      "args": ["consult7", "your-openrouter-api-key"]
    }
  }
}

your-openrouter-api-keyを実際のOpenRouter APIキーに置き換えてください。

インストールは不要です。uvxが自動的に分離された環境でconsult7をダウンロードして実行します。

コマンドラインオプション

uvx consult7 <api-key> [--test]
  • <api-key>: 必須。OpenRouter APIキー

  • --test: オプション。API接続をテストします

モデルとモードは起動時ではなく、ツール呼び出し時に指定します。

サポートされているモデル

Consult7はOpenRouterで利用可能な500以上のすべてのモデルをサポートしています。以下は、動的なファイルサイズ制限が最適化された主要モデルです:

モデル

コンテキスト

ユースケース

openai/gpt-5.5

1M

最新のGPT、バランスの取れたパフォーマンス

google/gemini-3.1-pro-preview

1M

フラッグシップ推論モデル

google/gemini-3-flash-preview

1M

Gemini 3 Flash、超高速

google/gemini-3.1-flash-lite-preview

1M

超高速ライトモデル

anthropic/claude-opus-4.7

1M

最高品質、適応型思考

anthropic/claude-sonnet-4.6

1M

優れた推論、高速

anthropic/claude-haiku-4.5

200k

低コスト、非常に高速

x-ai/grok-4.20

2M

自動推論、巨大なコンテキスト

x-ai/grok-4.1-fast

2M

最大のコンテキストウィンドウ

クイックニーモニック:

  • gptt = openai/gpt-5.5 + think(最新のGPT、深い推論)

  • gemt = google/gemini-3.1-pro-preview + think(Gemini 3.1 Pro、フラッグシップ推論)

  • grot = x-ai/grok-4.20 + think(Grok 4.20、自動推論)

  • oput = anthropic/claude-opus-4.7 + think(Claude Opus、適応型思考)

  • opuf = anthropic/claude-opus-4.7 + fast(Claude Opus、推論なし)

  • gemf = google/gemini-3-flash-preview + fast(Gemini 3 Flash、超高速)

  • ULTRA = GEMT、GPTT、GROT、OPUTを並列実行(最大限の洞察を得るための4つのフロンティアモデル)

任意のOpenRouterモデルID(例:deepseek/deepseek-r1-0528)を使用できます。詳細はモデルリスト全体を参照してください。ファイルサイズ制限は、各モデルのコンテキストウィンドウに基づいて自動的に計算されます。

パフォーマンスモード

  • fast: 推論なし - クイックな回答、単純なタスク

  • mid: 中程度の推論 - コードレビュー、バグ分析

  • think: 最大限の推論 - セキュリティ監査、複雑なリファクタリング

ファイル指定ルール

  • 絶対パスのみ: /Users/john/project/src/*.py

  • ファイル名のみワイルドカード可: /Users/john/project/*.py(ディレクトリパスには不可)

  • ワイルドカードには拡張子が必須: *ではなく*.py

  • ファイルとパターンの混在: ["/path/src/*.py", "/path/README.md", "/path/tests/*_test.py"]

一般的なパターン:

  • すべてのPythonファイル: /path/to/dir/*.py

  • テストファイル: /path/to/tests/*_test.py または /path/to/tests/test_*.py

  • 複数の拡張子: ["/path/*.js", "/path/*.ts"]

自動的に無視されるもの: __pycache__, .env, secrets.py, .DS_Store, .git, node_modules

サイズ制限: モデルのコンテキストウィンドウに基づく動的制限(例:Grok 4.20: 約8MB, GPT-5.5: 約4MB)

ツールパラメータ

コンサルテーションツールは以下のパラメータを受け入れます:

  • files (必須): 絶対ファイルパスのリスト、またはファイル名のみにワイルドカードを含むパターン

  • query (必須): LLMがファイルを処理するための質問や指示

  • model (必須): 使用するLLMモデル(上記の「サポートされているモデル」を参照)

  • mode (必須): パフォーマンスモード - fast, mid, または think

  • output_file (オプション): 結果を返す代わりにファイルに保存するための絶対パス

    • ファイルが存在する場合、_updatedサフィックスを付けて保存されます(例:report.mdreport_updated.md

    • 指定された場合、"Result has been saved to /path/to/file"のみを返します

    • エージェントのコンテキストを溢れさせずにレポート、ドキュメント、分析を生成するのに便利です

  • zdr (オプション): Zero Data Retention(データ保持ゼロ)ルーティングを有効にする(デフォルト: false

    • trueの場合、ZDRポリシーを持つエンドポイントのみにルーティングします(プロンプトはプロバイダーによって保持されません)

    • ZDR利用可能: Gemini 3.1 Pro/Flash, Claude Opus 4.7, GPT-5

    • 利用不可: GPT-5.5, Grok 4.20(エラーを返します)

使用例

Claude CodeでのMCP経由

Claude Codeは適切なパラメータで自動的にツールを使用します:

{
  "files": ["/Users/john/project/src/*.py"],
  "query": "Explain the main architecture",
  "model": "google/gemini-3-flash-preview",
  "mode": "fast"
}

Python API経由

from consult7.consultation import consultation_impl

result = await consultation_impl(
    files=["/path/to/file.py"],
    query="Explain this code",
    model="google/gemini-3-flash-preview",
    mode="fast",  # fast, mid, or think
    provider="openrouter",
    api_key="sk-or-v1-..."
)

テスト

# Test OpenRouter connection
uvx consult7 sk-or-v1-your-api-key --test

アンインストール

Claude Codeからconsult7を削除するには:

claude mcp remove consult7 -s user

バージョン履歴

v3.6.0

  • モデルのアップグレード: GPT-5.5, Claude Opus 4.7, Grok 4.20

  • Claude Opus 4.7 (1Mコンテキスト) は適応型思考を使用 — reasoning.enabled=true

  • Grok 4.20 (2Mコンテキスト) は自動推論を使用 — reasoning.enabled=true

  • ニーモニックの更新: gptt → GPT-5.5, oput/opuf → Claude Opus 4.7, grot → Grok 4.20

  • レガシーモデルIDも引き続きサポート

v3.5.0

  • GPT-5.2 → GPT-5.4 (約1Mコンテキスト) にアップグレード

v3.4.0

  • モデルのアップグレード: Gemini 3.1 Pro, Claude Opus 4.6, Claude Sonnet 4.6, Grok 4.1 Fast

  • 新しいモデルの追加: Claude Haiku 4.5, Gemini 3.1 Flash Lite

  • ニーモニックの更新: gemt → Gemini 3.1 Pro, oput/opuf → Claude Opus 4.6

  • レガシーモデルIDも引き続きサポート

v3.3.0

  • GPT-5.2の思考モードの切り捨て問題を修正(ストリーミングに切り替え)

  • google/gemini-3-flash-preview (Gemini 3 Flash, 超高速) を追加

  • gemf ニーモニックをGemini 3 Flashを使用するように更新

  • Zero Data Retentionルーティング用の zdr パラメータを追加

v3.2.0

  • 努力ベースの推論を行うGPT-5.2に更新

v3.1.0

  • google/gemini-3-pro-preview (1Mコンテキスト, フラッグシップ推論モデル) を追加

  • 新しいニーモニック: gemt (Gemini 3 Pro), grot (Grok 4), ULTRA (並列実行)

v3.0.0

  • GoogleおよびOpenAIの直接プロバイダーを削除 - OpenRouterのみに変更

  • |thinking サフィックスを削除 - 代わりに mode パラメータを使用(必須)

  • クリーンな mode パラメータAPI: fast, mid, think

  • CLIを consult7 <provider> <key> から consult7 <key> に簡素化

  • モードの列挙型検証によるMCP統合の改善

  • モデルのコンテキストウィンドウに基づく動的なファイルサイズ制限

v2.1.0

  • レスポンスをファイルに保存するための output_file パラメータを追加

v2.0.0

  • 簡素化された検証を備えた新しいファイルリストインターフェース

  • ファイルサイズ制限を現実的な値に削減

ライセンス

MIT

A
license - permissive license
-
quality - not tested
C
maintenance

Maintenance

Maintainers
Response time
Release cycle
1Releases (12mo)
Issues opened vs closed

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/szeider/consult7'

If you have feedback or need assistance with the MCP directory API, please join our Discord server