Skip to main content
Glama

Ask LLM

CI GitHub Release License: MIT

パッケージ

タイプ

バージョン

ダウンロード数

ask-gemini-mcp

MCPサーバー

npm

downloads

ask-codex-mcp

MCPサーバー

npm

downloads

ask-ollama-mcp

MCPサーバー

npm

downloads

ask-llm-mcp

MCPサーバー

npm

downloads

@ask-llm/plugin

Claude Codeプラグイン

GitHub

/plugin install

AI間コラボレーションのためのMCPサーバー + Claude Codeプラグイン

AIクライアントと複数のLLMプロバイダーを接続し、AI間コラボレーションを実現するMCPサーバーです。Claude Code、Claude Desktop、Cursor、Warp、Copilot、および40以上の他のMCPクライアントで動作します。Geminiの100万トークン以上のコンテキスト、CodexのGPT-5.4、またはローカルのOllamaモデルを、すべて標準のMCP経由で活用できます。

なぜこれを使うのか?

  • セカンドオピニオンを得る — コミット前に別のAIにコーディングアプローチをレビューしてもらう

  • 計画を議論する — アーキテクチャ案を送信して批判や代替案の提案を受ける

  • 変更をレビューする — 複数のAIに差分を分析させ、メインのAIが見逃す可能性のある問題を特定する

  • 巨大なコンテキスト — Geminiは他のモデルではオーバーフローしてしまうようなコードベース全体(100万トークン以上)を読み取ります

  • ローカルかつプライベート — データがマシンから外部に出ないレビューにはOllamaを使用する

クイックスタート

Claude Code

# All-in-one — auto-detects installed providers
claude mcp add --scope user ask-llm -- npx -y ask-llm-mcp
claude mcp add --scope user gemini -- npx -y ask-gemini-mcp
claude mcp add --scope user codex -- npx -y ask-codex-mcp
claude mcp add --scope user ollama -- npx -y ask-ollama-mcp

Claude Desktop

claude_desktop_config.json に追加します:

{
  "mcpServers": {
    "ask-llm": {
      "command": "npx",
      "args": ["-y", "ask-llm-mcp"]
    }
  }
}
{
  "mcpServers": {
    "gemini": {
      "command": "npx",
      "args": ["-y", "ask-gemini-mcp"]
    },
    "codex": {
      "command": "npx",
      "args": ["-y", "ask-codex-mcp"]
    },
    "ollama": {
      "command": "npx",
      "args": ["-y", "ask-ollama-mcp"]
    }
  }
}

Cursor (.cursor/mcp.json):

{
  "mcpServers": {
    "ask-llm": { "command": "npx", "args": ["-y", "ask-llm-mcp"] }
  }
}

Codex CLI (~/.codex/config.toml):

[mcp_servers.ask-llm]
command = "npx"
args = ["-y", "ask-llm-mcp"]

任意のMCPクライアント (STDIOトランスポート):

{ "command": "npx", "args": ["-y", "ask-llm-mcp"] }

単一のプロバイダーを使用する場合は、ask-llm-mcpask-gemini-mcpask-codex-mcp、または ask-ollama-mcp に置き換えてください。

Claude Codeプラグイン

Ask LLMプラグインは、マルチプロバイダーによるコードレビュー、ブレインストーミング、および自動化されたフックをClaude Codeに直接追加します:

/plugin marketplace add Lykhoyda/ask-llm
/plugin install ask-llm@ask-llm-plugins

何ができるか

機能

説明

/multi-review

4段階の検証パイプラインとコンセンサス強調を備えたGemini + Codexによる並列レビュー

/gemini-review

信頼度フィルタリングを備えたGemini専用レビュー

/codex-review

信頼度フィルタリングを備えたCodex専用レビュー

/ollama-review

ローカルレビュー — データがマシンから外部に出ることはありません

/brainstorm

マルチLLMブレインストーミング:Claude Opusが外部プロバイダー(Gemini/Codex/Ollama)と並行して実際のファイルに対してトピックを調査し、検証済みの知見を重視してすべての結果を統合します

/compare

複数のプロバイダーからの生の回答を並べて表示(統合なし) — 各プロバイダーが同じ回答をどのように表現するかを確認したい場合に最適

プリコミットフック

git commit の前にステージングされた変更をレビューし、重大な問題について警告します

レビューエージェントは、Anthropicのコードレビュープラグインに触発された4段階のパイプライン(コンテキスト収集、明示的な偽陽性除外を含むプロンプト構築、統合、各知見のソースレベルでの検証)を使用します。

詳細はプラグインのドキュメントを参照してください。

前提条件

  • Node.js v20.0.0以上 (LTS)

  • 少なくとも1つのプロバイダー:

    • Gemini CLInpm install -g @google/gemini-cli && gemini login

    • Codex CLI — インストールおよび認証済みであること

    • Ollama — モデルをプルしてローカルで実行中であること (ollama pull qwen2.5-coder:7b)

MCPツール

ツール

パッケージ

目的

ask-gemini

ask-gemini-mcp

@ ファイル構文を使用してGemini CLIにプロンプトを送信。100万トークン以上のコンテキスト。stream-json によるライブプログレッシブ出力

ask-gemini-edit

ask-gemini-mcp

Geminiから構造化されたOLD/NEWコード編集ブロックを取得

fetch-chunk

ask-gemini-mcp

キャッシュされた大規模な応答からチャンクを取得

ask-codex

ask-codex-mcp

Codex CLIにプロンプトを送信。GPT-5.4とミニモデルへのフォールバック。sessionId によるネイティブなセッション再開

ask-ollama

ask-ollama-mcp

ローカルのOllamaにプロンプトを送信。完全プライベート、コストゼロ。sessionId によるサーバーサイドの会話リプレイ

ask-llm

ask-llm-mcp

統合オーケストレーター — 呼び出しごとにプロバイダーを選択。インストールされているすべてのプロバイダーに展開

multi-llm

ask-llm-mcp

同じプロンプトを複数のプロバイダーに並列で送信。プロバイダーごとの応答と使用量を1回の呼び出しで返却

get-usage-stats

すべて

セッションごとのトークン合計、フォールバック回数、プロバイダー/モデル別の内訳 — すべてメモリ内、永続化なし

diagnose

ask-llm-mcp

自己診断:Nodeバージョン、PATH解決、プロバイダーCLIの存在とバージョン。読み取り専用

ping

すべて

接続テスト — MCP設定の確認

すべての ask-* ツールは、複数ターンの会話のためにオプションの sessionId パラメータを受け入れ、人間が読めるテキストに加えて、MCP outputSchema を介して構造化された AskResponse(プロバイダー、応答、モデル、sessionId、使用量)を返します。オーケストレーター (ask-llm-mcp) は、ライブJSONスナップショット用のMCPリソースとして usage://current-session も公開します。

使用例

ask gemini to review the changes in @src/auth.ts for security issues
ask codex to suggest a better algorithm for @src/sort.ts
ask ollama to explain @src/config.ts (runs locally, no data sent anywhere)
use gemini to summarize @. the current directory
use multi-llm to compare what gemini and codex think about this approach

CLIサブコマンド

オーケストレーターバイナリ (ask-llm-mcp) は、デフォルトのMCPサーバーに加えて2つのCLIモードをサポートしています:

# Interactive multi-provider REPL — switch providers, persist sessions, see usage live
npx ask-llm-mcp repl

# Diagnose your setup — Node version, PATH, provider CLI versions, env vars
npx ask-llm-mcp doctor          # human-readable
npx ask-llm-mcp doctor --json   # machine-readable, exit 1 on error

REPLはプロバイダーごとにセッションを保持し (/provider gemini, /provider codex, /new, /sessions, /usage)、すべてのエグゼキューターの動作(クォータフォールバック、Gemini用のstream-json出力、ネイティブなセッション再開)を継承します。

モデル

プロバイダー

デフォルト

フォールバック

Gemini

gemini-3.1-pro-preview

gemini-3-flash-preview (クォータ超過時)

Codex

gpt-5.4

gpt-5.4-mini (クォータ超過時)

Ollama

qwen2.5-coder:7b

qwen2.5-coder:1.5b (見つからない場合)

すべてのプロバイダーは、エラー発生時に自動的に軽量なモデルにフォールバックします。

ドキュメント

貢献

貢献を歓迎します!取り組むべき課題についてはオープンなイシューを参照してください。

ライセンス

MITライセンス。詳細はLICENSEを参照してください。

免責事項: これは非公式のサードパーティ製ツールであり、GoogleやOpenAIと提携、承認、または後援されているものではありません。

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lykhoyda/ask-gemini-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server