Skip to main content
Glama

Ask LLM

CI GitHub Release License: MIT

类型

版本

下载量

ask-gemini-mcp

MCP 服务器

npm

downloads

ask-codex-mcp

MCP 服务器

npm

downloads

ask-ollama-mcp

MCP 服务器

npm

downloads

ask-llm-mcp

MCP 服务器

npm

downloads

@ask-llm/plugin

Claude Code 插件

GitHub

/plugin install

用于 AI 对 AI 协作的 MCP 服务器 + Claude Code 插件

这些 MCP 服务器将您的 AI 客户端与多个 LLM 提供商连接起来,以实现 AI 对 AI 的协作。适用于 Claude Code、Claude Desktop、Cursor、Warp、Copilot 和 40 多种其他 MCP 客户端。利用 Gemini 的 100 万+ token 上下文、Codex 的 GPT-5.4 或本地 Ollama 模型——所有这些都通过标准的 MCP 实现。

为什么选择它?

  • 获取第二意见 — 在提交代码之前,请另一位 AI 审查您的编码方法

  • 辩论方案 — 发送架构建议以获取批评和替代建议

  • 审查变更 — 让多个 AI 分析差异,以发现您的主要 AI 可能遗漏的问题

  • 海量上下文 — Gemini 可以读取其他模型无法处理的整个代码库(100 万+ token)

  • 本地且私密 — 使用 Ollama 进行审查,数据不会离开您的机器

快速入门

Claude Code

# All-in-one — auto-detects installed providers
claude mcp add --scope user ask-llm -- npx -y ask-llm-mcp
claude mcp add --scope user gemini -- npx -y ask-gemini-mcp
claude mcp add --scope user codex -- npx -y ask-codex-mcp
claude mcp add --scope user ollama -- npx -y ask-ollama-mcp

Claude Desktop

添加到 claude_desktop_config.json

{
  "mcpServers": {
    "ask-llm": {
      "command": "npx",
      "args": ["-y", "ask-llm-mcp"]
    }
  }
}
{
  "mcpServers": {
    "gemini": {
      "command": "npx",
      "args": ["-y", "ask-gemini-mcp"]
    },
    "codex": {
      "command": "npx",
      "args": ["-y", "ask-codex-mcp"]
    },
    "ollama": {
      "command": "npx",
      "args": ["-y", "ask-ollama-mcp"]
    }
  }
}

Cursor (.cursor/mcp.json):

{
  "mcpServers": {
    "ask-llm": { "command": "npx", "args": ["-y", "ask-llm-mcp"] }
  }
}

Codex CLI (~/.codex/config.toml):

[mcp_servers.ask-llm]
command = "npx"
args = ["-y", "ask-llm-mcp"]

任何 MCP 客户端 (STDIO 传输):

{ "command": "npx", "args": ["-y", "ask-llm-mcp"] }

ask-llm-mcp 替换为 ask-gemini-mcpask-codex-mcpask-ollama-mcp 以使用单个提供商。

Claude Code 插件

Ask LLM 插件为 Claude Code 直接添加了多提供商代码审查、头脑风暴和自动化钩子:

/plugin marketplace add Lykhoyda/ask-llm
/plugin install ask-llm@ask-llm-plugins

您将获得什么

功能

描述

/multi-review

并行 Gemini + Codex 审查,具有 4 阶段验证流水线和共识高亮显示

/gemini-review

仅 Gemini 审查,具有置信度过滤

/codex-review

仅 Codex 审查,具有置信度过滤

/ollama-review

本地审查 — 数据不会离开您的机器

/brainstorm

多 LLM 头脑风暴:Claude Opus 与外部提供商(Gemini/Codex/Ollama)并行研究主题,然后综合所有发现,并对经过验证的发现赋予更高权重

/compare

来自多个提供商的原始响应并排对比,不进行综合 — 当您想查看每个提供商如何表述同一个答案时使用

预提交钩子

git commit 之前审查暂存的更改,并警告关键问题

审查代理使用受 Anthropic 代码审查插件 启发的 4 阶段流水线:上下文收集、带有明确误报排除的提示构建、综合以及对每个发现的源级验证。

有关详细信息,请参阅 插件文档

先决条件

  • Node.js v20.0.0 或更高版本 (LTS)

  • 至少一个提供商:

    • Gemini CLInpm install -g @google/gemini-cli && gemini login

    • Codex CLI — 已安装并经过身份验证

    • Ollama — 在本地运行并拉取了模型 (ollama pull qwen2.5-coder:7b)

MCP 工具

工具

用途

ask-gemini

ask-gemini-mcp

使用 @ 文件语法向 Gemini CLI 发送提示。100 万+ token 上下文。通过 stream-json 实现实时渐进式输出

ask-gemini-edit

ask-gemini-mcp

从 Gemini 获取结构化的 OLD/NEW 代码编辑块

fetch-chunk

ask-gemini-mcp

从缓存的大型响应中检索块

ask-codex

ask-codex-mcp

向 Codex CLI 发送提示。GPT-5.4 带有 mini 回退。通过 sessionId 原生恢复会话

ask-ollama

ask-ollama-mcp

向本地 Ollama 发送提示。完全私密,零成本。通过 sessionId 进行服务器端对话重放

ask-llm

ask-llm-mcp

统一编排器 — 每次调用选择提供商。分发给所有已安装的提供商

multi-llm

ask-llm-mcp

并行向多个提供商发送相同的提示;在一次调用中返回每个提供商的响应 + 使用情况

get-usage-stats

全部

每个会话的 token 总数、回退计数、按提供商/模型细分 — 全部在内存中,无持久化

diagnose

ask-llm-mcp

自我诊断:Node 版本、PATH 解析、提供商 CLI 存在情况 + 版本。只读

ping

全部

连接测试 — 验证 MCP 设置

所有 ask-* 工具都接受一个可选的 sessionId 参数用于多轮对话,并且现在通过 MCP outputSchema 返回一个结构化的 AskResponse(提供商、响应、模型、sessionId、使用情况),以及人类可读的文本。编排器 (ask-llm-mcp) 还将 usage://current-session 作为 MCP 资源公开,用于实时 JSON 快照。

使用示例

ask gemini to review the changes in @src/auth.ts for security issues
ask codex to suggest a better algorithm for @src/sort.ts
ask ollama to explain @src/config.ts (runs locally, no data sent anywhere)
use gemini to summarize @. the current directory
use multi-llm to compare what gemini and codex think about this approach

CLI 子命令

编排器二进制文件 (ask-llm-mcp) 除了默认的 MCP 服务器外,还支持两种 CLI 模式:

# Interactive multi-provider REPL — switch providers, persist sessions, see usage live
npx ask-llm-mcp repl

# Diagnose your setup — Node version, PATH, provider CLI versions, env vars
npx ask-llm-mcp doctor          # human-readable
npx ask-llm-mcp doctor --json   # machine-readable, exit 1 on error

REPL 按提供商分发会话 (/provider gemini, /provider codex, /new, /sessions, /usage) 并继承所有执行器行为(配额回退、Gemini 的 stream-json 输出、原生会话恢复)。

模型

提供商

默认

回退

Gemini

gemini-3.1-pro-preview

gemini-3-flash-preview (配额不足时)

Codex

gpt-5.4

gpt-5.4-mini (配额不足时)

Ollama

qwen2.5-coder:7b

qwen2.5-coder:1.5b (如果未找到)

所有提供商在出错时都会自动回退到较轻的模型。

文档

贡献

欢迎贡献!请参阅 开放问题 以了解可以进行的工作。

许可证

MIT 许可证。有关详细信息,请参阅 LICENSE

免责声明: 这是一个非官方的第三方工具,不隶属于 Google 或 OpenAI,也不受其认可或赞助。

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lykhoyda/ask-gemini-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server