ask-gemini-mcp
Ask LLM
包 | 类型 | 版本 | 下载量 |
MCP 服务器 | |||
MCP 服务器 | |||
MCP 服务器 | |||
MCP 服务器 | |||
Claude Code 插件 |
|
用于 AI 对 AI 协作的 MCP 服务器 + Claude Code 插件
这些 MCP 服务器将您的 AI 客户端与多个 LLM 提供商连接起来,以实现 AI 对 AI 的协作。适用于 Claude Code、Claude Desktop、Cursor、Warp、Copilot 和 40 多种其他 MCP 客户端。利用 Gemini 的 100 万+ token 上下文、Codex 的 GPT-5.4 或本地 Ollama 模型——所有这些都通过标准的 MCP 实现。
为什么选择它?
获取第二意见 — 在提交代码之前,请另一位 AI 审查您的编码方法
辩论方案 — 发送架构建议以获取批评和替代建议
审查变更 — 让多个 AI 分析差异,以发现您的主要 AI 可能遗漏的问题
海量上下文 — Gemini 可以读取其他模型无法处理的整个代码库(100 万+ token)
本地且私密 — 使用 Ollama 进行审查,数据不会离开您的机器
快速入门
Claude Code
# All-in-one — auto-detects installed providers
claude mcp add --scope user ask-llm -- npx -y ask-llm-mcpclaude mcp add --scope user gemini -- npx -y ask-gemini-mcp
claude mcp add --scope user codex -- npx -y ask-codex-mcp
claude mcp add --scope user ollama -- npx -y ask-ollama-mcpClaude Desktop
添加到 claude_desktop_config.json:
{
"mcpServers": {
"ask-llm": {
"command": "npx",
"args": ["-y", "ask-llm-mcp"]
}
}
}{
"mcpServers": {
"gemini": {
"command": "npx",
"args": ["-y", "ask-gemini-mcp"]
},
"codex": {
"command": "npx",
"args": ["-y", "ask-codex-mcp"]
},
"ollama": {
"command": "npx",
"args": ["-y", "ask-ollama-mcp"]
}
}
}Cursor (.cursor/mcp.json):
{
"mcpServers": {
"ask-llm": { "command": "npx", "args": ["-y", "ask-llm-mcp"] }
}
}Codex CLI (~/.codex/config.toml):
[mcp_servers.ask-llm]
command = "npx"
args = ["-y", "ask-llm-mcp"]任何 MCP 客户端 (STDIO 传输):
{ "command": "npx", "args": ["-y", "ask-llm-mcp"] }将 ask-llm-mcp 替换为 ask-gemini-mcp、ask-codex-mcp 或 ask-ollama-mcp 以使用单个提供商。
Claude Code 插件
Ask LLM 插件为 Claude Code 直接添加了多提供商代码审查、头脑风暴和自动化钩子:
/plugin marketplace add Lykhoyda/ask-llm
/plugin install ask-llm@ask-llm-plugins您将获得什么
功能 | 描述 |
| 并行 Gemini + Codex 审查,具有 4 阶段验证流水线和共识高亮显示 |
| 仅 Gemini 审查,具有置信度过滤 |
| 仅 Codex 审查,具有置信度过滤 |
| 本地审查 — 数据不会离开您的机器 |
| 多 LLM 头脑风暴:Claude Opus 与外部提供商(Gemini/Codex/Ollama)并行研究主题,然后综合所有发现,并对经过验证的发现赋予更高权重 |
| 来自多个提供商的原始响应并排对比,不进行综合 — 当您想查看每个提供商如何表述同一个答案时使用 |
预提交钩子 | 在 |
审查代理使用受 Anthropic 代码审查插件 启发的 4 阶段流水线:上下文收集、带有明确误报排除的提示构建、综合以及对每个发现的源级验证。
有关详细信息,请参阅 插件文档。
先决条件
Node.js v20.0.0 或更高版本 (LTS)
至少一个提供商:
Gemini CLI —
npm install -g @google/gemini-cli && gemini loginCodex CLI — 已安装并经过身份验证
Ollama — 在本地运行并拉取了模型 (
ollama pull qwen2.5-coder:7b)
MCP 工具
工具 | 包 | 用途 |
| ask-gemini-mcp | 使用 |
| ask-gemini-mcp | 从 Gemini 获取结构化的 OLD/NEW 代码编辑块 |
| ask-gemini-mcp | 从缓存的大型响应中检索块 |
| ask-codex-mcp | 向 Codex CLI 发送提示。GPT-5.4 带有 mini 回退。通过 |
| ask-ollama-mcp | 向本地 Ollama 发送提示。完全私密,零成本。通过 |
| ask-llm-mcp | 统一编排器 — 每次调用选择提供商。分发给所有已安装的提供商 |
| ask-llm-mcp | 并行向多个提供商发送相同的提示;在一次调用中返回每个提供商的响应 + 使用情况 |
| 全部 | 每个会话的 token 总数、回退计数、按提供商/模型细分 — 全部在内存中,无持久化 |
| ask-llm-mcp | 自我诊断:Node 版本、PATH 解析、提供商 CLI 存在情况 + 版本。只读 |
| 全部 | 连接测试 — 验证 MCP 设置 |
所有 ask-* 工具都接受一个可选的 sessionId 参数用于多轮对话,并且现在通过 MCP outputSchema 返回一个结构化的 AskResponse(提供商、响应、模型、sessionId、使用情况),以及人类可读的文本。编排器 (ask-llm-mcp) 还将 usage://current-session 作为 MCP 资源公开,用于实时 JSON 快照。
使用示例
ask gemini to review the changes in @src/auth.ts for security issues
ask codex to suggest a better algorithm for @src/sort.ts
ask ollama to explain @src/config.ts (runs locally, no data sent anywhere)
use gemini to summarize @. the current directory
use multi-llm to compare what gemini and codex think about this approachCLI 子命令
编排器二进制文件 (ask-llm-mcp) 除了默认的 MCP 服务器外,还支持两种 CLI 模式:
# Interactive multi-provider REPL — switch providers, persist sessions, see usage live
npx ask-llm-mcp repl
# Diagnose your setup — Node version, PATH, provider CLI versions, env vars
npx ask-llm-mcp doctor # human-readable
npx ask-llm-mcp doctor --json # machine-readable, exit 1 on errorREPL 按提供商分发会话 (/provider gemini, /provider codex, /new, /sessions, /usage) 并继承所有执行器行为(配额回退、Gemini 的 stream-json 输出、原生会话恢复)。
模型
提供商 | 默认 | 回退 |
Gemini |
|
|
Codex |
|
|
Ollama |
|
|
所有提供商在出错时都会自动回退到较轻的模型。
文档
AI 可读: llms.txt | llms-full.txt
贡献
欢迎贡献!请参阅 开放问题 以了解可以进行的工作。
许可证
MIT 许可证。有关详细信息,请参阅 LICENSE。
免责声明: 这是一个非官方的第三方工具,不隶属于 Google 或 OpenAI,也不受其认可或赞助。
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lykhoyda/ask-gemini-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server