ask-gemini-mcp
Ask LLM
Paket | Typ | Version | Downloads |
MCP-Server | |||
MCP-Server | |||
MCP-Server | |||
MCP-Server | |||
Claude Code Plugin |
|
MCP-Server + Claude Code Plugin für KI-zu-KI-Zusammenarbeit
MCP-Server, die Ihren KI-Client mit mehreren LLM-Anbietern für die KI-zu-KI-Zusammenarbeit verbinden. Funktioniert mit Claude Code, Claude Desktop, Cursor, Warp, Copilot und über 40 weiteren MCP-Clients. Nutzen Sie den 1M+ Token-Kontext von Gemini, Codex' GPT-5.4 oder lokale Ollama-Modelle – alles über das Standard-MCP.
Warum?
Holen Sie sich eine zweite Meinung — Bitten Sie eine andere KI, Ihren Programmieransatz zu überprüfen, bevor Sie Änderungen committen
Diskutieren Sie Pläne — Senden Sie Architekturvorschläge zur Kritik und für alternative Vorschläge
Überprüfen Sie Änderungen — Lassen Sie mehrere KIs Diffs analysieren, um Probleme zu finden, die Ihre primäre KI möglicherweise übersieht
Massiver Kontext — Gemini liest ganze Codebasen (1M+ Token), die andere Modelle überfordern würden
Lokal & privat — Verwenden Sie Ollama für Überprüfungen, bei denen keine Daten Ihren Rechner verlassen
Schnellstart
Claude Code
# All-in-one — auto-detects installed providers
claude mcp add --scope user ask-llm -- npx -y ask-llm-mcpclaude mcp add --scope user gemini -- npx -y ask-gemini-mcp
claude mcp add --scope user codex -- npx -y ask-codex-mcp
claude mcp add --scope user ollama -- npx -y ask-ollama-mcpClaude Desktop
Fügen Sie dies zu claude_desktop_config.json hinzu:
{
"mcpServers": {
"ask-llm": {
"command": "npx",
"args": ["-y", "ask-llm-mcp"]
}
}
}{
"mcpServers": {
"gemini": {
"command": "npx",
"args": ["-y", "ask-gemini-mcp"]
},
"codex": {
"command": "npx",
"args": ["-y", "ask-codex-mcp"]
},
"ollama": {
"command": "npx",
"args": ["-y", "ask-ollama-mcp"]
}
}
}Cursor (.cursor/mcp.json):
{
"mcpServers": {
"ask-llm": { "command": "npx", "args": ["-y", "ask-llm-mcp"] }
}
}Codex CLI (~/.codex/config.toml):
[mcp_servers.ask-llm]
command = "npx"
args = ["-y", "ask-llm-mcp"]Jeder MCP-Client (STDIO-Transport):
{ "command": "npx", "args": ["-y", "ask-llm-mcp"] }Ersetzen Sie ask-llm-mcp durch ask-gemini-mcp, ask-codex-mcp oder ask-ollama-mcp für einen einzelnen Anbieter.
Claude Code Plugin
Das Ask LLM-Plugin fügt Claude Code Multi-Anbieter-Code-Reviews, Brainstorming und automatisierte Hooks direkt hinzu:
/plugin marketplace add Lykhoyda/ask-llm
/plugin install ask-llm@ask-llm-pluginsWas Sie erhalten
Funktion | Beschreibung |
| Paralleles Gemini + Codex Review mit 4-Phasen-Validierungspipeline und Konsens-Hervorhebung |
| Nur-Gemini-Review mit Konfidenzfilterung |
| Nur-Codex-Review mit Konfidenzfilterung |
| Lokales Review — keine Daten verlassen Ihren Rechner |
| Multi-LLM-Brainstorming: Claude Opus recherchiert das Thema anhand echter Dateien parallel zu externen Anbietern (Gemini/Codex/Ollama) und synthetisiert dann alle Ergebnisse, wobei verifizierte Ergebnisse höher gewichtet werden |
| Rohantworten mehrerer Anbieter im direkten Vergleich, ohne Synthese — wenn Sie sehen möchten, wie jeder Anbieter dieselbe Antwort formuliert |
Pre-commit hook | Überprüft gestagte Änderungen vor |
Die Review-Agenten verwenden eine 4-Phasen-Pipeline, die von Anthropic's Code-Review-Plugin inspiriert ist: Kontextsammlung, Prompt-Konstruktion mit expliziten Ausschlüssen für Fehlalarme, Synthese und Validierung jedes Ergebnisses auf Quellcode-Ebene.
Weitere Details finden Sie in der Plugin-Dokumentation.
Voraussetzungen
Node.js v20.0.0 oder höher (LTS)
Mindestens ein Anbieter:
Gemini CLI —
npm install -g @google/gemini-cli && gemini loginCodex CLI — installiert und authentifiziert
Ollama — lokal ausgeführt mit einem geladenen Modell (
ollama pull qwen2.5-coder:7b)
MCP-Tools
Tool | Paket | Zweck |
| ask-gemini-mcp | Senden Sie Prompts an das Gemini CLI mit |
| ask-gemini-mcp | Erhalten Sie strukturierte OLD/NEW Code-Edit-Blöcke von Gemini |
| ask-gemini-mcp | Abrufen von Chunks aus zwischengespeicherten großen Antworten |
| ask-codex-mcp | Senden Sie Prompts an das Codex CLI. GPT-5.4 mit Mini-Fallback. Native Sitzungswiederaufnahme via |
| ask-ollama-mcp | Senden Sie Prompts an das lokale Ollama. Vollständig privat, keine Kosten. Serverseitige Konversationswiederholung via |
| ask-llm-mcp | Einheitlicher Orchestrator — wählen Sie den Anbieter pro Aufruf. Verteilen Sie Anfragen an alle installierten Anbieter |
| ask-llm-mcp | Senden Sie denselben Prompt parallel an mehrere Anbieter; gibt Antworten pro Anbieter + Nutzung in einem Aufruf zurück |
| alle | Token-Summen pro Sitzung, Fallback-Anzahlen, Aufschlüsselungen nach Anbieter/Modell — alles im Arbeitsspeicher, keine Persistenz |
| ask-llm-mcp | Selbstdiagnose: Node-Version, PATH-Auflösung, Vorhandensein von Anbieter-CLI + Versionen. Nur lesend |
| alle | Verbindungstest — überprüfen Sie das MCP-Setup |
Alle ask-*-Tools akzeptieren einen optionalen sessionId-Parameter für Konversationen mit mehreren Runden und geben jetzt eine strukturierte AskResponse (Anbieter, Antwort, Modell, sessionId, Nutzung) über das MCP outputSchema zusätzlich zum menschenlesbaren Text zurück. Der Orchestrator (ask-llm-mcp) stellt außerdem usage://current-session als MCP-Ressource für Live-JSON-Snapshots bereit.
Anwendungsbeispiele
ask gemini to review the changes in @src/auth.ts for security issues
ask codex to suggest a better algorithm for @src/sort.ts
ask ollama to explain @src/config.ts (runs locally, no data sent anywhere)
use gemini to summarize @. the current directory
use multi-llm to compare what gemini and codex think about this approachCLI-Unterbefehle
Die Orchestrator-Binary (ask-llm-mcp) unterstützt neben dem Standard-MCP-Server zwei CLI-Modi:
# Interactive multi-provider REPL — switch providers, persist sessions, see usage live
npx ask-llm-mcp repl
# Diagnose your setup — Node version, PATH, provider CLI versions, env vars
npx ask-llm-mcp doctor # human-readable
npx ask-llm-mcp doctor --json # machine-readable, exit 1 on errorDas REPL verwaltet Sitzungen pro Anbieter (/provider gemini, /provider codex, /new, /sessions, /usage) und erbt das gesamte Executor-Verhalten (Kontingent-Fallback, stream-json-Ausgabe für Gemini, native Sitzungswiederaufnahme).
Modelle
Anbieter | Standard | Fallback |
Gemini |
|
|
Codex |
|
|
Ollama |
|
|
Alle Anbieter greifen bei Fehlern automatisch auf ein leichteres Modell zurück.
Dokumentation
Dokumentationsseite: lykhoyda.github.io/ask-llm
KI-lesbar: llms.txt | llms-full.txt
Mitwirken
Beiträge sind willkommen! Siehe offene Issues für Aufgaben, an denen gearbeitet werden kann.
Lizenz
MIT-Lizenz. Siehe LICENSE für Details.
Haftungsausschluss: Dies ist ein inoffizielles Tool eines Drittanbieters und ist nicht mit Google oder OpenAI verbunden, wird von diesen nicht unterstützt oder gesponsert.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lykhoyda/ask-gemini-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server