Consult7
Consult7 MCP-Server
Consult7 ist ein Model Context Protocol (MCP)-Server, der es KI-Agenten ermöglicht, Modelle mit großem Kontextfenster über OpenRouter hinzuzuziehen, um umfangreiche Dateisammlungen zu analysieren – komplette Codebasen, Dokumenten-Repositories oder gemischte Inhalte, die die Kontextlimits des aktuellen Agenten überschreiten.
Warum Consult7?
Consult7 ermöglicht es jedem MCP-kompatiblen Agenten, die Dateianalyse auf Modelle mit großem Kontext (bis zu 2 Mio. Token) auszulagern. Nützlich, wenn:
Der aktuelle Kontext des Agenten voll ist
Die Aufgabe spezialisierte Modellfähigkeiten erfordert
Große Codebasen in einer einzigen Abfrage analysiert werden müssen
Ergebnisse verschiedener Modelle verglichen werden sollen
"Für Nutzer von Claude Code ist Consult7 ein echter Wendepunkt."
Funktionsweise
Consult7 sammelt Dateien von den von Ihnen angegebenen Pfaden (mit optionalen Platzhaltern in Dateinamen), fügt sie zu einem einzigen Kontext zusammen und sendet sie zusammen mit Ihrer Abfrage an ein Modell mit großem Kontextfenster. Das Ergebnis wird direkt an den Agenten zurückgegeben, mit dem Sie arbeiten.
Beispiel-Anwendungsfälle
Schnelle Zusammenfassung der Codebasis
Dateien:
["/Users/john/project/src/*.py", "/Users/john/project/lib/*.py"]Abfrage: "Fasse die Architektur und die Hauptkomponenten dieses Python-Projekts zusammen"
Modell:
"google/gemini-3-flash-preview"Modus:
"fast"
Tiefgehende Analyse mit Schlussfolgerung
Dateien:
["/Users/john/webapp/src/*.py", "/Users/john/webapp/auth/*.py", "/Users/john/webapp/api/*.js"]Abfrage: "Analysiere den Authentifizierungsfluss in dieser Codebasis. Denke Schritt für Schritt über Sicherheitslücken nach und schlage Verbesserungen vor"
Modell:
"anthropic/claude-opus-4.7"Modus:
"think"
Bericht generieren und in Datei speichern
Dateien:
["/Users/john/project/src/*.py", "/Users/john/project/tests/*.py"]Abfrage: "Erstelle einen umfassenden Code-Review-Bericht mit Architektur-Analyse, Bewertung der Codequalität und Verbesserungsvorschlägen"
Modell:
"google/gemini-2.5-pro"Modus:
"think"Ausgabedatei:
"/Users/john/reports/code_review.md"Ergebnis: Gibt
"Ergebnis wurde in /Users/john/reports/code_review.md gespeichert"zurück, anstatt den Kontext des Agenten zu überfluten
Highlight: Gemini 3.1 Modelle
Consult7 unterstützt die Gemini 3.1-Familie von Google:
Gemini 3.1 Pro (
google/gemini-3.1-pro-preview) – Flaggschiff-Modell für Schlussfolgerungen, 1 Mio. KontextGemini 3 Flash (
google/gemini-3-flash-preview) – Ultraschnelles Modell, 1 Mio. KontextGemini 3.1 Flash Lite (
google/gemini-3.1-flash-lite-preview) – Ultraschnelles Lite-Modell, 1 Mio. Kontext
Kurze Mnemoniken für Power-User:
gemt= Gemini 3.1 Pro + think (Flaggschiff-Schlussfolgerung)gemf= Gemini 3 Flash + fast (ultraschnell)gptt= GPT-5.5 + think (neuestes GPT)grot= Grok 4.20 + think (automatische Schlussfolgerung)oput= Claude Opus 4.7 + think (adaptives Denken)ULTRA= Führt GEMT, GPTT, GROT und OPUT parallel aus (4 Spitzenmodelle)
Diese Mnemoniken erleichtern das Referenzieren von Modell-Modus-Kombinationen in Ihren Abfragen.
Installation
Claude Code
Führen Sie einfach Folgendes aus:
claude mcp add -s user consult7 uvx -- consult7 your-openrouter-api-keyClaude Desktop
Fügen Sie dies Ihrer Claude Desktop-Konfigurationsdatei hinzu:
{
"mcpServers": {
"consult7": {
"type": "stdio",
"command": "uvx",
"args": ["consult7", "your-openrouter-api-key"]
}
}
}Ersetzen Sie your-openrouter-api-key durch Ihren tatsächlichen OpenRouter-API-Schlüssel.
Keine Installation erforderlich – uvx lädt consult7 automatisch herunter und führt es in einer isolierten Umgebung aus.
Befehlszeilenoptionen
uvx consult7 <api-key> [--test]<api-key>: Erforderlich. Ihr OpenRouter-API-Schlüssel--test: Optional. Testet die API-Verbindung
Modell und Modus werden beim Aufruf des Tools angegeben, nicht beim Start.
Unterstützte Modelle
Consult7 unterstützt alle über 500 Modelle, die auf OpenRouter verfügbar sind. Nachfolgend finden Sie die Flaggschiff-Modelle mit optimierten dynamischen Dateigrößenlimits:
Modell | Kontext | Anwendungsfall |
| 1M | Neuestes GPT, ausgewogene Leistung |
| 1M | Flaggschiff-Modell für Schlussfolgerungen |
| 1M | Gemini 3 Flash, ultraschnell |
| 1M | Ultraschnelles Lite-Modell |
| 1M | Beste Qualität, adaptives Denken |
| 1M | Exzellente Schlussfolgerung, schnell |
| 200k | Budget, sehr schnell |
| 2M | Automatische Schlussfolgerung, riesiger Kontext |
| 2M | Größtes Kontextfenster |
Kurze Mnemoniken:
gptt=openai/gpt-5.5+think(neuestes GPT, tiefgehende Schlussfolgerung)gemt=google/gemini-3.1-pro-preview+think(Gemini 3.1 Pro, Flaggschiff-Schlussfolgerung)grot=x-ai/grok-4.20+think(Grok 4.20, automatische Schlussfolgerung)oput=anthropic/claude-opus-4.7+think(Claude Opus, adaptives Denken)opuf=anthropic/claude-opus-4.7+fast(Claude Opus, keine Schlussfolgerung)gemf=google/gemini-3-flash-preview+fast(Gemini 3 Flash, ultraschnell)ULTRA= ruft GEMT, GPTT, GROT und OPUT PARALLEL auf (4 Spitzenmodelle für maximale Erkenntnisse)
Sie können jede OpenRouter-Modell-ID verwenden (z. B. deepseek/deepseek-r1-0528). Siehe die vollständige Modellliste. Dateigrößenlimits werden automatisch basierend auf dem Kontextfenster jedes Modells berechnet.
Leistungsmodi
fast: Keine Schlussfolgerung – schnelle Antworten, einfache Aufgabenmid: Moderate Schlussfolgerung – Code-Reviews, Fehleranalysethink: Maximale Schlussfolgerung – Sicherheitsaudits, komplexes Refactoring
Regeln für Dateispezifikationen
Nur absolute Pfade:
/Users/john/project/src/*.pyPlatzhalter nur in Dateinamen:
/Users/john/project/*.py(nicht in Verzeichnispfaden)Erweiterung bei Platzhaltern erforderlich:
*.pynicht*Dateien und Muster mischen:
["/path/src/*.py", "/path/README.md", "/path/tests/*_test.py"]
Häufige Muster:
Alle Python-Dateien:
/path/to/dir/*.pyTestdateien:
/path/to/tests/*_test.pyoder/path/to/tests/test_*.pyMehrere Erweiterungen:
["/path/*.js", "/path/*.ts"]
Automatisch ignoriert: __pycache__, .env, secrets.py, .DS_Store, .git, node_modules
Größenlimits: Dynamisch basierend auf dem Kontextfenster des Modells (z. B. Grok 4.20: ~8MB, GPT-5.5: ~4MB)
Tool-Parameter
Das Konsultations-Tool akzeptiert die folgenden Parameter:
files (erforderlich): Liste absoluter Dateipfade oder Muster mit Platzhaltern nur in Dateinamen
query (erforderlich): Ihre Frage oder Anweisung an das LLM zur Verarbeitung der Dateien
model (erforderlich): Das zu verwendende LLM-Modell (siehe Unterstützte Modelle oben)
mode (erforderlich): Leistungsmodus –
fast,midoderthinkoutput_file (optional): Absoluter Pfad, um die Antwort in einer Datei zu speichern, anstatt sie zurückzugeben
Wenn die Datei existiert, wird sie mit dem Suffix
_updatedgespeichert (z. B.report.md→report_updated.md)Wenn angegeben, wird nur Folgendes zurückgegeben:
"Ergebnis wurde in /path/to/file gespeichert"Nützlich zum Generieren von Berichten, Dokumentationen oder Analysen, ohne den Kontext des Agenten zu überfluten
zdr (optional): Aktiviert Zero Data Retention-Routing (Standard:
false)Wenn
true, wird nur an Endpunkte mit ZDR-Richtlinie weitergeleitet (Prompts werden vom Anbieter nicht gespeichert)ZDR verfügbar: Gemini 3.1 Pro/Flash, Claude Opus 4.7, GPT-5
Nicht verfügbar: GPT-5.5, Grok 4.20 (gibt Fehler zurück)
Anwendungsbeispiele
Via MCP in Claude Code
Claude Code verwendet das Tool automatisch mit den richtigen Parametern:
{
"files": ["/Users/john/project/src/*.py"],
"query": "Explain the main architecture",
"model": "google/gemini-3-flash-preview",
"mode": "fast"
}Via Python-API
from consult7.consultation import consultation_impl
result = await consultation_impl(
files=["/path/to/file.py"],
query="Explain this code",
model="google/gemini-3-flash-preview",
mode="fast", # fast, mid, or think
provider="openrouter",
api_key="sk-or-v1-..."
)Testen
# Test OpenRouter connection
uvx consult7 sk-or-v1-your-api-key --testDeinstallation
Um consult7 aus Claude Code zu entfernen:
claude mcp remove consult7 -s userVersionsgeschichte
v3.6.0
Aktualisierte Modelle: GPT-5.5, Claude Opus 4.7, Grok 4.20
Claude Opus 4.7 (1M Kontext) verwendet adaptives Denken —
reasoning.enabled=trueGrok 4.20 (2M Kontext) verwendet automatische Schlussfolgerung —
reasoning.enabled=trueAktualisierte Mnemoniken:
gptt→ GPT-5.5,oput/opuf→ Claude Opus 4.7,grot→ Grok 4.20Legacy-Modell-IDs werden weiterhin unterstützt
v3.5.0
Upgrade GPT-5.2 → GPT-5.4 (~1M Kontext)
v3.4.0
Aktualisierte Modelle: Gemini 3.1 Pro, Claude Opus 4.6, Claude Sonnet 4.6, Grok 4.1 Fast
Neue Modelle hinzugefügt: Claude Haiku 4.5, Gemini 3.1 Flash Lite
Aktualisierte Mnemoniken:
gemt→ Gemini 3.1 Pro,oput/opuf→ Claude Opus 4.6Legacy-Modell-IDs werden weiterhin unterstützt
v3.3.0
Problem mit der Kürzung im Denkmodus von GPT-5.2 behoben (auf Streaming umgestellt)
google/gemini-3-flash-previewhinzugefügt (Gemini 3 Flash, ultraschnell)gemf-Mnemonik auf Gemini 3 Flash aktualisiertzdr-Parameter für Zero Data Retention-Routing hinzugefügt
v3.2.0
Aktualisiert auf GPT-5.2 mit aufwandsbasierter Schlussfolgerung
v3.1.0
google/gemini-3-pro-previewhinzugefügt (1M Kontext, Flaggschiff-Modell für Schlussfolgerungen)Neue Mnemoniken:
gemt(Gemini 3 Pro),grot(Grok 4),ULTRA(parallele Ausführung)
v3.0.0
Direkte Anbieter Google und OpenAI entfernt – jetzt nur noch OpenRouter
|thinking-Suffix entfernt – stattdessenmode-Parameter verwenden (jetzt erforderlich)Saubere
mode-Parameter-API:fast,mid,thinkCLI von
consult7 <provider> <key>aufconsult7 <key>vereinfachtBessere MCP-Integration mit Enum-Validierung für Modi
Dynamische Dateigrößenlimits basierend auf dem Kontextfenster des Modells
v2.1.0
output_file-Parameter zum Speichern von Antworten in Dateien hinzugefügt
v2.0.0
Neue Dateilisten-Schnittstelle mit vereinfachter Validierung
Dateigrößenlimits auf realistische Werte reduziert
Lizenz
MIT
This server cannot be installed
Maintenance
Appeared in Searches
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/szeider/consult7'
If you have feedback or need assistance with the MCP directory API, please join our Discord server