Skip to main content
Glama

Ask LLM

CI GitHub Release License: MIT

Paquete

Tipo

Versión

Descargas

ask-gemini-mcp

Servidor MCP

npm

downloads

ask-codex-mcp

Servidor MCP

npm

downloads

ask-ollama-mcp

Servidor MCP

npm

downloads

ask-llm-mcp

Servidor MCP

npm

downloads

@ask-llm/plugin

Plugin de Claude Code

GitHub

/plugin install

Servidores MCP + plugin de Claude Code para la colaboración entre IA

Servidores MCP que conectan tu cliente de IA con múltiples proveedores de LLM para la colaboración entre IA. Funciona con Claude Code, Claude Desktop, Cursor, Warp, Copilot y más de 40 clientes MCP. Aprovecha el contexto de más de 1M de tokens de Gemini, el GPT-5.4 de Codex o modelos locales de Ollama, todo a través del estándar MCP.

¿Por qué?

  • Obtén una segunda opinión — Pide a otra IA que revise tu enfoque de programación antes de confirmar cambios

  • Debate planes — Envía propuestas de arquitectura para recibir críticas y sugerencias alternativas

  • Revisa cambios — Haz que varias IA analicen las diferencias (diffs) para detectar problemas que tu IA principal podría pasar por alto

  • Contexto masivo — Gemini lee bases de código completas (más de 1M de tokens) que desbordarían a otros modelos

  • Local y privado — Usa Ollama para revisiones donde ningún dato sale de tu máquina

Inicio rápido

Claude Code

# All-in-one — auto-detects installed providers
claude mcp add --scope user ask-llm -- npx -y ask-llm-mcp
claude mcp add --scope user gemini -- npx -y ask-gemini-mcp
claude mcp add --scope user codex -- npx -y ask-codex-mcp
claude mcp add --scope user ollama -- npx -y ask-ollama-mcp

Claude Desktop

Añade a claude_desktop_config.json:

{
  "mcpServers": {
    "ask-llm": {
      "command": "npx",
      "args": ["-y", "ask-llm-mcp"]
    }
  }
}
{
  "mcpServers": {
    "gemini": {
      "command": "npx",
      "args": ["-y", "ask-gemini-mcp"]
    },
    "codex": {
      "command": "npx",
      "args": ["-y", "ask-codex-mcp"]
    },
    "ollama": {
      "command": "npx",
      "args": ["-y", "ask-ollama-mcp"]
    }
  }
}

Cursor (.cursor/mcp.json):

{
  "mcpServers": {
    "ask-llm": { "command": "npx", "args": ["-y", "ask-llm-mcp"] }
  }
}

Codex CLI (~/.codex/config.toml):

[mcp_servers.ask-llm]
command = "npx"
args = ["-y", "ask-llm-mcp"]

Cualquier cliente MCP (transporte STDIO):

{ "command": "npx", "args": ["-y", "ask-llm-mcp"] }

Reemplaza ask-llm-mcp con ask-gemini-mcp, ask-codex-mcp o ask-ollama-mcp para un solo proveedor.

Plugin de Claude Code

El plugin Ask LLM añade revisión de código multiproveedor, lluvia de ideas y ganchos automatizados directamente en Claude Code:

/plugin marketplace add Lykhoyda/ask-llm
/plugin install ask-llm@ask-llm-plugins

Qué obtienes

Característica

Descripción

/multi-review

Revisión paralela de Gemini + Codex con pipeline de validación de 4 fases y resaltado de consenso

/gemini-review

Revisión solo con Gemini con filtrado de confianza

/codex-review

Revisión solo con Codex con filtrado de confianza

/ollama-review

Revisión local: ningún dato sale de tu máquina

/brainstorm

Lluvia de ideas con múltiples LLM: Claude Opus investiga el tema comparándolo con archivos reales en paralelo con proveedores externos (Gemini/Codex/Ollama), luego sintetiza todos los hallazgos dando mayor peso a los verificados

/compare

Respuestas crudas lado a lado de múltiples proveedores, sin síntesis: para cuando quieres ver cómo cada proveedor redacta la misma respuesta

Pre-commit hook

Revisa los cambios preparados antes de git commit, advierte sobre problemas críticos

Los agentes de revisión utilizan un pipeline de 4 fases inspirado en el plugin de revisión de código de Anthropic: recopilación de contexto, construcción de prompts con exclusiones explícitas de falsos positivos, síntesis y validación a nivel de fuente de cada hallazgo.

Consulta la documentación del plugin para más detalles.

Requisitos previos

  • Node.js v20.0.0 o superior (LTS)

  • Al menos un proveedor:

    • Gemini CLInpm install -g @google/gemini-cli && gemini login

    • Codex CLI — instalado y autenticado

    • Ollama — ejecutándose localmente con un modelo descargado (ollama pull qwen2.5-coder:7b)

Herramientas MCP

Herramienta

Paquete

Propósito

ask-gemini

ask-gemini-mcp

Envía prompts a la CLI de Gemini con sintaxis de archivo @. Contexto de más de 1M de tokens. Salida progresiva en vivo vía stream-json

ask-gemini-edit

ask-gemini-mcp

Obtén bloques de edición de código OLD/NEW estructurados de Gemini

fetch-chunk

ask-gemini-mcp

Recupera fragmentos de respuestas grandes almacenadas en caché

ask-codex

ask-codex-mcp

Envía prompts a la CLI de Codex. GPT-5.4 con respaldo mini. Reanudación de sesión nativa vía sessionId

ask-ollama

ask-ollama-mcp

Envía prompts a Ollama local. Totalmente privado, sin costo. Reproducción de conversación del lado del servidor vía sessionId

ask-llm

ask-llm-mcp

Orquestador unificado: elige el proveedor por llamada. Distribuye a todos los proveedores instalados

multi-llm

ask-llm-mcp

Envía el mismo prompt a múltiples proveedores en paralelo; devuelve respuestas por proveedor + uso en una sola llamada

get-usage-stats

todos

Totales de tokens por sesión, conteos de respaldo, desgloses por proveedor/modelo: todo en memoria, sin persistencia

diagnose

ask-llm-mcp

Autodiagnóstico: versión de Node, resolución de PATH, presencia de CLI de proveedor + versiones. Solo lectura

ping

todos

Prueba de conexión: verifica la configuración de MCP

Todas las herramientas ask-* aceptan un parámetro opcional sessionId para conversaciones de varios turnos y ahora devuelven una AskResponse estructurada (proveedor, respuesta, modelo, sessionId, uso) a través de outputSchema de MCP junto con el texto legible por humanos. El orquestador (ask-llm-mcp) también expone usage://current-session como un recurso MCP para instantáneas JSON en vivo.

Ejemplos de uso

ask gemini to review the changes in @src/auth.ts for security issues
ask codex to suggest a better algorithm for @src/sort.ts
ask ollama to explain @src/config.ts (runs locally, no data sent anywhere)
use gemini to summarize @. the current directory
use multi-llm to compare what gemini and codex think about this approach

Subcomandos de CLI

El binario del orquestador (ask-llm-mcp) admite dos modos de CLI además del servidor MCP predeterminado:

# Interactive multi-provider REPL — switch providers, persist sessions, see usage live
npx ask-llm-mcp repl

# Diagnose your setup — Node version, PATH, provider CLI versions, env vars
npx ask-llm-mcp doctor          # human-readable
npx ask-llm-mcp doctor --json   # machine-readable, exit 1 on error

El REPL gestiona sesiones por proveedor (/provider gemini, /provider codex, /new, /sessions, /usage) y hereda todo el comportamiento del ejecutor (respaldo de cuota, salida stream-json para Gemini, reanudación de sesión nativa).

Modelos

Proveedor

Predeterminado

Respaldo

Gemini

gemini-3.1-pro-preview

gemini-3-flash-preview (en cuota)

Codex

gpt-5.4

gpt-5.4-mini (en cuota)

Ollama

qwen2.5-coder:7b

qwen2.5-coder:1.5b (si no se encuentra)

Todos los proveedores recurren automáticamente a un modelo más ligero en caso de error.

Documentación

Contribución

¡Las contribuciones son bienvenidas! Consulta los problemas abiertos para ver en qué trabajar.

Licencia

Licencia MIT. Consulta LICENSE para más detalles.

Descargo de responsabilidad: Esta es una herramienta no oficial de terceros y no está afiliada, respaldada ni patrocinada por Google u OpenAI.

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lykhoyda/ask-gemini-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server