ask-gemini-mcp
Ask LLM
Paquete | Tipo | Versión | Descargas |
Servidor MCP | |||
Servidor MCP | |||
Servidor MCP | |||
Servidor MCP | |||
Plugin de Claude Code |
|
Servidores MCP + plugin de Claude Code para la colaboración entre IA
Servidores MCP que conectan tu cliente de IA con múltiples proveedores de LLM para la colaboración entre IA. Funciona con Claude Code, Claude Desktop, Cursor, Warp, Copilot y más de 40 clientes MCP. Aprovecha el contexto de más de 1M de tokens de Gemini, el GPT-5.4 de Codex o modelos locales de Ollama, todo a través del estándar MCP.
¿Por qué?
Obtén una segunda opinión — Pide a otra IA que revise tu enfoque de programación antes de confirmar cambios
Debate planes — Envía propuestas de arquitectura para recibir críticas y sugerencias alternativas
Revisa cambios — Haz que varias IA analicen las diferencias (diffs) para detectar problemas que tu IA principal podría pasar por alto
Contexto masivo — Gemini lee bases de código completas (más de 1M de tokens) que desbordarían a otros modelos
Local y privado — Usa Ollama para revisiones donde ningún dato sale de tu máquina
Inicio rápido
Claude Code
# All-in-one — auto-detects installed providers
claude mcp add --scope user ask-llm -- npx -y ask-llm-mcpclaude mcp add --scope user gemini -- npx -y ask-gemini-mcp
claude mcp add --scope user codex -- npx -y ask-codex-mcp
claude mcp add --scope user ollama -- npx -y ask-ollama-mcpClaude Desktop
Añade a claude_desktop_config.json:
{
"mcpServers": {
"ask-llm": {
"command": "npx",
"args": ["-y", "ask-llm-mcp"]
}
}
}{
"mcpServers": {
"gemini": {
"command": "npx",
"args": ["-y", "ask-gemini-mcp"]
},
"codex": {
"command": "npx",
"args": ["-y", "ask-codex-mcp"]
},
"ollama": {
"command": "npx",
"args": ["-y", "ask-ollama-mcp"]
}
}
}Cursor (.cursor/mcp.json):
{
"mcpServers": {
"ask-llm": { "command": "npx", "args": ["-y", "ask-llm-mcp"] }
}
}Codex CLI (~/.codex/config.toml):
[mcp_servers.ask-llm]
command = "npx"
args = ["-y", "ask-llm-mcp"]Cualquier cliente MCP (transporte STDIO):
{ "command": "npx", "args": ["-y", "ask-llm-mcp"] }Reemplaza ask-llm-mcp con ask-gemini-mcp, ask-codex-mcp o ask-ollama-mcp para un solo proveedor.
Plugin de Claude Code
El plugin Ask LLM añade revisión de código multiproveedor, lluvia de ideas y ganchos automatizados directamente en Claude Code:
/plugin marketplace add Lykhoyda/ask-llm
/plugin install ask-llm@ask-llm-pluginsQué obtienes
Característica | Descripción |
| Revisión paralela de Gemini + Codex con pipeline de validación de 4 fases y resaltado de consenso |
| Revisión solo con Gemini con filtrado de confianza |
| Revisión solo con Codex con filtrado de confianza |
| Revisión local: ningún dato sale de tu máquina |
| Lluvia de ideas con múltiples LLM: Claude Opus investiga el tema comparándolo con archivos reales en paralelo con proveedores externos (Gemini/Codex/Ollama), luego sintetiza todos los hallazgos dando mayor peso a los verificados |
| Respuestas crudas lado a lado de múltiples proveedores, sin síntesis: para cuando quieres ver cómo cada proveedor redacta la misma respuesta |
Pre-commit hook | Revisa los cambios preparados antes de |
Los agentes de revisión utilizan un pipeline de 4 fases inspirado en el plugin de revisión de código de Anthropic: recopilación de contexto, construcción de prompts con exclusiones explícitas de falsos positivos, síntesis y validación a nivel de fuente de cada hallazgo.
Consulta la documentación del plugin para más detalles.
Requisitos previos
Node.js v20.0.0 o superior (LTS)
Al menos un proveedor:
Gemini CLI —
npm install -g @google/gemini-cli && gemini loginCodex CLI — instalado y autenticado
Ollama — ejecutándose localmente con un modelo descargado (
ollama pull qwen2.5-coder:7b)
Herramientas MCP
Herramienta | Paquete | Propósito |
| ask-gemini-mcp | Envía prompts a la CLI de Gemini con sintaxis de archivo |
| ask-gemini-mcp | Obtén bloques de edición de código OLD/NEW estructurados de Gemini |
| ask-gemini-mcp | Recupera fragmentos de respuestas grandes almacenadas en caché |
| ask-codex-mcp | Envía prompts a la CLI de Codex. GPT-5.4 con respaldo mini. Reanudación de sesión nativa vía |
| ask-ollama-mcp | Envía prompts a Ollama local. Totalmente privado, sin costo. Reproducción de conversación del lado del servidor vía |
| ask-llm-mcp | Orquestador unificado: elige el proveedor por llamada. Distribuye a todos los proveedores instalados |
| ask-llm-mcp | Envía el mismo prompt a múltiples proveedores en paralelo; devuelve respuestas por proveedor + uso en una sola llamada |
| todos | Totales de tokens por sesión, conteos de respaldo, desgloses por proveedor/modelo: todo en memoria, sin persistencia |
| ask-llm-mcp | Autodiagnóstico: versión de Node, resolución de PATH, presencia de CLI de proveedor + versiones. Solo lectura |
| todos | Prueba de conexión: verifica la configuración de MCP |
Todas las herramientas ask-* aceptan un parámetro opcional sessionId para conversaciones de varios turnos y ahora devuelven una AskResponse estructurada (proveedor, respuesta, modelo, sessionId, uso) a través de outputSchema de MCP junto con el texto legible por humanos. El orquestador (ask-llm-mcp) también expone usage://current-session como un recurso MCP para instantáneas JSON en vivo.
Ejemplos de uso
ask gemini to review the changes in @src/auth.ts for security issues
ask codex to suggest a better algorithm for @src/sort.ts
ask ollama to explain @src/config.ts (runs locally, no data sent anywhere)
use gemini to summarize @. the current directory
use multi-llm to compare what gemini and codex think about this approachSubcomandos de CLI
El binario del orquestador (ask-llm-mcp) admite dos modos de CLI además del servidor MCP predeterminado:
# Interactive multi-provider REPL — switch providers, persist sessions, see usage live
npx ask-llm-mcp repl
# Diagnose your setup — Node version, PATH, provider CLI versions, env vars
npx ask-llm-mcp doctor # human-readable
npx ask-llm-mcp doctor --json # machine-readable, exit 1 on errorEl REPL gestiona sesiones por proveedor (/provider gemini, /provider codex, /new, /sessions, /usage) y hereda todo el comportamiento del ejecutor (respaldo de cuota, salida stream-json para Gemini, reanudación de sesión nativa).
Modelos
Proveedor | Predeterminado | Respaldo |
Gemini |
|
|
Codex |
|
|
Ollama |
|
|
Todos los proveedores recurren automáticamente a un modelo más ligero en caso de error.
Documentación
Sitio de documentación: lykhoyda.github.io/ask-llm
Legible por IA: llms.txt | llms-full.txt
Contribución
¡Las contribuciones son bienvenidas! Consulta los problemas abiertos para ver en qué trabajar.
Licencia
Licencia MIT. Consulta LICENSE para más detalles.
Descargo de responsabilidad: Esta es una herramienta no oficial de terceros y no está afiliada, respaldada ni patrocinada por Google u OpenAI.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lykhoyda/ask-gemini-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server