Skip to main content
Glama

Ask LLM

CI GitHub Release License: MIT

Paket

Typ

Version

Downloads

ask-gemini-mcp

MCP-Server

npm

downloads

ask-codex-mcp

MCP-Server

npm

downloads

ask-ollama-mcp

MCP-Server

npm

downloads

ask-llm-mcp

MCP-Server

npm

downloads

@ask-llm/plugin

Claude Code Plugin

GitHub

/plugin install

MCP-Server + Claude Code Plugin für KI-zu-KI-Zusammenarbeit

MCP-Server, die Ihren KI-Client mit mehreren LLM-Anbietern für die KI-zu-KI-Zusammenarbeit verbinden. Funktioniert mit Claude Code, Claude Desktop, Cursor, Warp, Copilot und über 40 weiteren MCP-Clients. Nutzen Sie den 1M+ Token-Kontext von Gemini, Codex' GPT-5.4 oder lokale Ollama-Modelle – alles über das Standard-MCP.

Warum?

  • Holen Sie sich eine zweite Meinung — Bitten Sie eine andere KI, Ihren Programmieransatz zu überprüfen, bevor Sie Änderungen committen

  • Diskutieren Sie Pläne — Senden Sie Architekturvorschläge zur Kritik und für alternative Vorschläge

  • Überprüfen Sie Änderungen — Lassen Sie mehrere KIs Diffs analysieren, um Probleme zu finden, die Ihre primäre KI möglicherweise übersieht

  • Massiver Kontext — Gemini liest ganze Codebasen (1M+ Token), die andere Modelle überfordern würden

  • Lokal & privat — Verwenden Sie Ollama für Überprüfungen, bei denen keine Daten Ihren Rechner verlassen

Schnellstart

Claude Code

# All-in-one — auto-detects installed providers
claude mcp add --scope user ask-llm -- npx -y ask-llm-mcp
claude mcp add --scope user gemini -- npx -y ask-gemini-mcp
claude mcp add --scope user codex -- npx -y ask-codex-mcp
claude mcp add --scope user ollama -- npx -y ask-ollama-mcp

Claude Desktop

Fügen Sie dies zu claude_desktop_config.json hinzu:

{
  "mcpServers": {
    "ask-llm": {
      "command": "npx",
      "args": ["-y", "ask-llm-mcp"]
    }
  }
}
{
  "mcpServers": {
    "gemini": {
      "command": "npx",
      "args": ["-y", "ask-gemini-mcp"]
    },
    "codex": {
      "command": "npx",
      "args": ["-y", "ask-codex-mcp"]
    },
    "ollama": {
      "command": "npx",
      "args": ["-y", "ask-ollama-mcp"]
    }
  }
}

Cursor (.cursor/mcp.json):

{
  "mcpServers": {
    "ask-llm": { "command": "npx", "args": ["-y", "ask-llm-mcp"] }
  }
}

Codex CLI (~/.codex/config.toml):

[mcp_servers.ask-llm]
command = "npx"
args = ["-y", "ask-llm-mcp"]

Jeder MCP-Client (STDIO-Transport):

{ "command": "npx", "args": ["-y", "ask-llm-mcp"] }

Ersetzen Sie ask-llm-mcp durch ask-gemini-mcp, ask-codex-mcp oder ask-ollama-mcp für einen einzelnen Anbieter.

Claude Code Plugin

Das Ask LLM-Plugin fügt Claude Code Multi-Anbieter-Code-Reviews, Brainstorming und automatisierte Hooks direkt hinzu:

/plugin marketplace add Lykhoyda/ask-llm
/plugin install ask-llm@ask-llm-plugins

Was Sie erhalten

Funktion

Beschreibung

/multi-review

Paralleles Gemini + Codex Review mit 4-Phasen-Validierungspipeline und Konsens-Hervorhebung

/gemini-review

Nur-Gemini-Review mit Konfidenzfilterung

/codex-review

Nur-Codex-Review mit Konfidenzfilterung

/ollama-review

Lokales Review — keine Daten verlassen Ihren Rechner

/brainstorm

Multi-LLM-Brainstorming: Claude Opus recherchiert das Thema anhand echter Dateien parallel zu externen Anbietern (Gemini/Codex/Ollama) und synthetisiert dann alle Ergebnisse, wobei verifizierte Ergebnisse höher gewichtet werden

/compare

Rohantworten mehrerer Anbieter im direkten Vergleich, ohne Synthese — wenn Sie sehen möchten, wie jeder Anbieter dieselbe Antwort formuliert

Pre-commit hook

Überprüft gestagte Änderungen vor git commit und warnt vor kritischen Problemen

Die Review-Agenten verwenden eine 4-Phasen-Pipeline, die von Anthropic's Code-Review-Plugin inspiriert ist: Kontextsammlung, Prompt-Konstruktion mit expliziten Ausschlüssen für Fehlalarme, Synthese und Validierung jedes Ergebnisses auf Quellcode-Ebene.

Weitere Details finden Sie in der Plugin-Dokumentation.

Voraussetzungen

  • Node.js v20.0.0 oder höher (LTS)

  • Mindestens ein Anbieter:

    • Gemini CLInpm install -g @google/gemini-cli && gemini login

    • Codex CLI — installiert und authentifiziert

    • Ollama — lokal ausgeführt mit einem geladenen Modell (ollama pull qwen2.5-coder:7b)

MCP-Tools

Tool

Paket

Zweck

ask-gemini

ask-gemini-mcp

Senden Sie Prompts an das Gemini CLI mit @ Dateisyntax. 1M+ Token-Kontext. Live-fortschreitende Ausgabe via stream-json

ask-gemini-edit

ask-gemini-mcp

Erhalten Sie strukturierte OLD/NEW Code-Edit-Blöcke von Gemini

fetch-chunk

ask-gemini-mcp

Abrufen von Chunks aus zwischengespeicherten großen Antworten

ask-codex

ask-codex-mcp

Senden Sie Prompts an das Codex CLI. GPT-5.4 mit Mini-Fallback. Native Sitzungswiederaufnahme via sessionId

ask-ollama

ask-ollama-mcp

Senden Sie Prompts an das lokale Ollama. Vollständig privat, keine Kosten. Serverseitige Konversationswiederholung via sessionId

ask-llm

ask-llm-mcp

Einheitlicher Orchestrator — wählen Sie den Anbieter pro Aufruf. Verteilen Sie Anfragen an alle installierten Anbieter

multi-llm

ask-llm-mcp

Senden Sie denselben Prompt parallel an mehrere Anbieter; gibt Antworten pro Anbieter + Nutzung in einem Aufruf zurück

get-usage-stats

alle

Token-Summen pro Sitzung, Fallback-Anzahlen, Aufschlüsselungen nach Anbieter/Modell — alles im Arbeitsspeicher, keine Persistenz

diagnose

ask-llm-mcp

Selbstdiagnose: Node-Version, PATH-Auflösung, Vorhandensein von Anbieter-CLI + Versionen. Nur lesend

ping

alle

Verbindungstest — überprüfen Sie das MCP-Setup

Alle ask-*-Tools akzeptieren einen optionalen sessionId-Parameter für Konversationen mit mehreren Runden und geben jetzt eine strukturierte AskResponse (Anbieter, Antwort, Modell, sessionId, Nutzung) über das MCP outputSchema zusätzlich zum menschenlesbaren Text zurück. Der Orchestrator (ask-llm-mcp) stellt außerdem usage://current-session als MCP-Ressource für Live-JSON-Snapshots bereit.

Anwendungsbeispiele

ask gemini to review the changes in @src/auth.ts for security issues
ask codex to suggest a better algorithm for @src/sort.ts
ask ollama to explain @src/config.ts (runs locally, no data sent anywhere)
use gemini to summarize @. the current directory
use multi-llm to compare what gemini and codex think about this approach

CLI-Unterbefehle

Die Orchestrator-Binary (ask-llm-mcp) unterstützt neben dem Standard-MCP-Server zwei CLI-Modi:

# Interactive multi-provider REPL — switch providers, persist sessions, see usage live
npx ask-llm-mcp repl

# Diagnose your setup — Node version, PATH, provider CLI versions, env vars
npx ask-llm-mcp doctor          # human-readable
npx ask-llm-mcp doctor --json   # machine-readable, exit 1 on error

Das REPL verwaltet Sitzungen pro Anbieter (/provider gemini, /provider codex, /new, /sessions, /usage) und erbt das gesamte Executor-Verhalten (Kontingent-Fallback, stream-json-Ausgabe für Gemini, native Sitzungswiederaufnahme).

Modelle

Anbieter

Standard

Fallback

Gemini

gemini-3.1-pro-preview

gemini-3-flash-preview (bei Kontingent)

Codex

gpt-5.4

gpt-5.4-mini (bei Kontingent)

Ollama

qwen2.5-coder:7b

qwen2.5-coder:1.5b (falls nicht gefunden)

Alle Anbieter greifen bei Fehlern automatisch auf ein leichteres Modell zurück.

Dokumentation

Mitwirken

Beiträge sind willkommen! Siehe offene Issues für Aufgaben, an denen gearbeitet werden kann.

Lizenz

MIT-Lizenz. Siehe LICENSE für Details.

Haftungsausschluss: Dies ist ein inoffizielles Tool eines Drittanbieters und ist nicht mit Google oder OpenAI verbunden, wird von diesen nicht unterstützt oder gesponsert.

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lykhoyda/ask-gemini-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server