ask-gemini-mcp
Ask LLM
パッケージ | タイプ | バージョン | ダウンロード数 |
MCPサーバー | |||
MCPサーバー | |||
MCPサーバー | |||
MCPサーバー | |||
Claude Codeプラグイン |
|
AI間コラボレーションのためのMCPサーバー + Claude Codeプラグイン
AIクライアントと複数のLLMプロバイダーを接続し、AI間コラボレーションを実現するMCPサーバーです。Claude Code、Claude Desktop、Cursor、Warp、Copilot、および40以上の他のMCPクライアントで動作します。Geminiの100万トークン以上のコンテキスト、CodexのGPT-5.4、またはローカルのOllamaモデルを、すべて標準のMCP経由で活用できます。
なぜこれを使うのか?
セカンドオピニオンを得る — コミット前に別のAIにコーディングアプローチをレビューしてもらう
計画を議論する — アーキテクチャ案を送信して批判や代替案の提案を受ける
変更をレビューする — 複数のAIに差分を分析させ、メインのAIが見逃す可能性のある問題を特定する
巨大なコンテキスト — Geminiは他のモデルではオーバーフローしてしまうようなコードベース全体(100万トークン以上)を読み取ります
ローカルかつプライベート — データがマシンから外部に出ないレビューにはOllamaを使用する
クイックスタート
Claude Code
# All-in-one — auto-detects installed providers
claude mcp add --scope user ask-llm -- npx -y ask-llm-mcpclaude mcp add --scope user gemini -- npx -y ask-gemini-mcp
claude mcp add --scope user codex -- npx -y ask-codex-mcp
claude mcp add --scope user ollama -- npx -y ask-ollama-mcpClaude Desktop
claude_desktop_config.json に追加します:
{
"mcpServers": {
"ask-llm": {
"command": "npx",
"args": ["-y", "ask-llm-mcp"]
}
}
}{
"mcpServers": {
"gemini": {
"command": "npx",
"args": ["-y", "ask-gemini-mcp"]
},
"codex": {
"command": "npx",
"args": ["-y", "ask-codex-mcp"]
},
"ollama": {
"command": "npx",
"args": ["-y", "ask-ollama-mcp"]
}
}
}Cursor (.cursor/mcp.json):
{
"mcpServers": {
"ask-llm": { "command": "npx", "args": ["-y", "ask-llm-mcp"] }
}
}Codex CLI (~/.codex/config.toml):
[mcp_servers.ask-llm]
command = "npx"
args = ["-y", "ask-llm-mcp"]任意のMCPクライアント (STDIOトランスポート):
{ "command": "npx", "args": ["-y", "ask-llm-mcp"] }単一のプロバイダーを使用する場合は、ask-llm-mcp を ask-gemini-mcp、ask-codex-mcp、または ask-ollama-mcp に置き換えてください。
Claude Codeプラグイン
Ask LLMプラグインは、マルチプロバイダーによるコードレビュー、ブレインストーミング、および自動化されたフックをClaude Codeに直接追加します:
/plugin marketplace add Lykhoyda/ask-llm
/plugin install ask-llm@ask-llm-plugins何ができるか
機能 | 説明 |
| 4段階の検証パイプラインとコンセンサス強調を備えたGemini + Codexによる並列レビュー |
| 信頼度フィルタリングを備えたGemini専用レビュー |
| 信頼度フィルタリングを備えたCodex専用レビュー |
| ローカルレビュー — データがマシンから外部に出ることはありません |
| マルチLLMブレインストーミング:Claude Opusが外部プロバイダー(Gemini/Codex/Ollama)と並行して実際のファイルに対してトピックを調査し、検証済みの知見を重視してすべての結果を統合します |
| 複数のプロバイダーからの生の回答を並べて表示(統合なし) — 各プロバイダーが同じ回答をどのように表現するかを確認したい場合に最適 |
プリコミットフック |
|
レビューエージェントは、Anthropicのコードレビュープラグインに触発された4段階のパイプライン(コンテキスト収集、明示的な偽陽性除外を含むプロンプト構築、統合、各知見のソースレベルでの検証)を使用します。
詳細はプラグインのドキュメントを参照してください。
前提条件
Node.js v20.0.0以上 (LTS)
少なくとも1つのプロバイダー:
Gemini CLI —
npm install -g @google/gemini-cli && gemini loginCodex CLI — インストールおよび認証済みであること
Ollama — モデルをプルしてローカルで実行中であること (
ollama pull qwen2.5-coder:7b)
MCPツール
ツール | パッケージ | 目的 |
| ask-gemini-mcp |
|
| ask-gemini-mcp | Geminiから構造化されたOLD/NEWコード編集ブロックを取得 |
| ask-gemini-mcp | キャッシュされた大規模な応答からチャンクを取得 |
| ask-codex-mcp | Codex CLIにプロンプトを送信。GPT-5.4とミニモデルへのフォールバック。 |
| ask-ollama-mcp | ローカルのOllamaにプロンプトを送信。完全プライベート、コストゼロ。 |
| ask-llm-mcp | 統合オーケストレーター — 呼び出しごとにプロバイダーを選択。インストールされているすべてのプロバイダーに展開 |
| ask-llm-mcp | 同じプロンプトを複数のプロバイダーに並列で送信。プロバイダーごとの応答と使用量を1回の呼び出しで返却 |
| すべて | セッションごとのトークン合計、フォールバック回数、プロバイダー/モデル別の内訳 — すべてメモリ内、永続化なし |
| ask-llm-mcp | 自己診断:Nodeバージョン、PATH解決、プロバイダーCLIの存在とバージョン。読み取り専用 |
| すべて | 接続テスト — MCP設定の確認 |
すべての ask-* ツールは、複数ターンの会話のためにオプションの sessionId パラメータを受け入れ、人間が読めるテキストに加えて、MCP outputSchema を介して構造化された AskResponse(プロバイダー、応答、モデル、sessionId、使用量)を返します。オーケストレーター (ask-llm-mcp) は、ライブJSONスナップショット用のMCPリソースとして usage://current-session も公開します。
使用例
ask gemini to review the changes in @src/auth.ts for security issues
ask codex to suggest a better algorithm for @src/sort.ts
ask ollama to explain @src/config.ts (runs locally, no data sent anywhere)
use gemini to summarize @. the current directory
use multi-llm to compare what gemini and codex think about this approachCLIサブコマンド
オーケストレーターバイナリ (ask-llm-mcp) は、デフォルトのMCPサーバーに加えて2つのCLIモードをサポートしています:
# Interactive multi-provider REPL — switch providers, persist sessions, see usage live
npx ask-llm-mcp repl
# Diagnose your setup — Node version, PATH, provider CLI versions, env vars
npx ask-llm-mcp doctor # human-readable
npx ask-llm-mcp doctor --json # machine-readable, exit 1 on errorREPLはプロバイダーごとにセッションを保持し (/provider gemini, /provider codex, /new, /sessions, /usage)、すべてのエグゼキューターの動作(クォータフォールバック、Gemini用のstream-json出力、ネイティブなセッション再開)を継承します。
モデル
プロバイダー | デフォルト | フォールバック |
Gemini |
|
|
Codex |
|
|
Ollama |
|
|
すべてのプロバイダーは、エラー発生時に自動的に軽量なモデルにフォールバックします。
ドキュメント
ドキュメントサイト: lykhoyda.github.io/ask-llm
AI可読: llms.txt | llms-full.txt
貢献
貢献を歓迎します!取り組むべき課題についてはオープンなイシューを参照してください。
ライセンス
MITライセンス。詳細はLICENSEを参照してください。
免責事項: これは非公式のサードパーティ製ツールであり、GoogleやOpenAIと提携、承認、または後援されているものではありません。
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lykhoyda/ask-gemini-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server