Skip to main content
Glama

Consult7 MCP-Server

Consult7 ist ein Model Context Protocol (MCP)-Server, der es KI-Agenten ermöglicht, Modelle mit großem Kontextfenster über OpenRouter hinzuzuziehen, um umfangreiche Dateisammlungen zu analysieren – komplette Codebasen, Dokumenten-Repositories oder gemischte Inhalte, die die Kontextlimits des aktuellen Agenten überschreiten.

Warum Consult7?

Consult7 ermöglicht es jedem MCP-kompatiblen Agenten, die Dateianalyse auf Modelle mit großem Kontext (bis zu 2 Mio. Token) auszulagern. Nützlich, wenn:

  • Der aktuelle Kontext des Agenten voll ist

  • Die Aufgabe spezialisierte Modellfähigkeiten erfordert

  • Große Codebasen in einer einzigen Abfrage analysiert werden müssen

  • Ergebnisse verschiedener Modelle verglichen werden sollen

"Für Nutzer von Claude Code ist Consult7 ein echter Wendepunkt."

Funktionsweise

Consult7 sammelt Dateien von den von Ihnen angegebenen Pfaden (mit optionalen Platzhaltern in Dateinamen), fügt sie zu einem einzigen Kontext zusammen und sendet sie zusammen mit Ihrer Abfrage an ein Modell mit großem Kontextfenster. Das Ergebnis wird direkt an den Agenten zurückgegeben, mit dem Sie arbeiten.

Beispiel-Anwendungsfälle

Schnelle Zusammenfassung der Codebasis

  • Dateien: ["/Users/john/project/src/*.py", "/Users/john/project/lib/*.py"]

  • Abfrage: "Fasse die Architektur und die Hauptkomponenten dieses Python-Projekts zusammen"

  • Modell: "google/gemini-3-flash-preview"

  • Modus: "fast"

Tiefgehende Analyse mit Schlussfolgerung

  • Dateien: ["/Users/john/webapp/src/*.py", "/Users/john/webapp/auth/*.py", "/Users/john/webapp/api/*.js"]

  • Abfrage: "Analysiere den Authentifizierungsfluss in dieser Codebasis. Denke Schritt für Schritt über Sicherheitslücken nach und schlage Verbesserungen vor"

  • Modell: "anthropic/claude-opus-4.7"

  • Modus: "think"

Bericht generieren und in Datei speichern

  • Dateien: ["/Users/john/project/src/*.py", "/Users/john/project/tests/*.py"]

  • Abfrage: "Erstelle einen umfassenden Code-Review-Bericht mit Architektur-Analyse, Bewertung der Codequalität und Verbesserungsvorschlägen"

  • Modell: "google/gemini-2.5-pro"

  • Modus: "think"

  • Ausgabedatei: "/Users/john/reports/code_review.md"

  • Ergebnis: Gibt "Ergebnis wurde in /Users/john/reports/code_review.md gespeichert" zurück, anstatt den Kontext des Agenten zu überfluten

Highlight: Gemini 3.1 Modelle

Consult7 unterstützt die Gemini 3.1-Familie von Google:

  • Gemini 3.1 Pro (google/gemini-3.1-pro-preview) – Flaggschiff-Modell für Schlussfolgerungen, 1 Mio. Kontext

  • Gemini 3 Flash (google/gemini-3-flash-preview) – Ultraschnelles Modell, 1 Mio. Kontext

  • Gemini 3.1 Flash Lite (google/gemini-3.1-flash-lite-preview) – Ultraschnelles Lite-Modell, 1 Mio. Kontext

Kurze Mnemoniken für Power-User:

  • gemt = Gemini 3.1 Pro + think (Flaggschiff-Schlussfolgerung)

  • gemf = Gemini 3 Flash + fast (ultraschnell)

  • gptt = GPT-5.5 + think (neuestes GPT)

  • grot = Grok 4.20 + think (automatische Schlussfolgerung)

  • oput = Claude Opus 4.7 + think (adaptives Denken)

  • ULTRA = Führt GEMT, GPTT, GROT und OPUT parallel aus (4 Spitzenmodelle)

Diese Mnemoniken erleichtern das Referenzieren von Modell-Modus-Kombinationen in Ihren Abfragen.

Installation

Claude Code

Führen Sie einfach Folgendes aus:

claude mcp add -s user consult7 uvx -- consult7 your-openrouter-api-key

Claude Desktop

Fügen Sie dies Ihrer Claude Desktop-Konfigurationsdatei hinzu:

{
  "mcpServers": {
    "consult7": {
      "type": "stdio",
      "command": "uvx",
      "args": ["consult7", "your-openrouter-api-key"]
    }
  }
}

Ersetzen Sie your-openrouter-api-key durch Ihren tatsächlichen OpenRouter-API-Schlüssel.

Keine Installation erforderlich – uvx lädt consult7 automatisch herunter und führt es in einer isolierten Umgebung aus.

Befehlszeilenoptionen

uvx consult7 <api-key> [--test]
  • <api-key>: Erforderlich. Ihr OpenRouter-API-Schlüssel

  • --test: Optional. Testet die API-Verbindung

Modell und Modus werden beim Aufruf des Tools angegeben, nicht beim Start.

Unterstützte Modelle

Consult7 unterstützt alle über 500 Modelle, die auf OpenRouter verfügbar sind. Nachfolgend finden Sie die Flaggschiff-Modelle mit optimierten dynamischen Dateigrößenlimits:

Modell

Kontext

Anwendungsfall

openai/gpt-5.5

1M

Neuestes GPT, ausgewogene Leistung

google/gemini-3.1-pro-preview

1M

Flaggschiff-Modell für Schlussfolgerungen

google/gemini-3-flash-preview

1M

Gemini 3 Flash, ultraschnell

google/gemini-3.1-flash-lite-preview

1M

Ultraschnelles Lite-Modell

anthropic/claude-opus-4.7

1M

Beste Qualität, adaptives Denken

anthropic/claude-sonnet-4.6

1M

Exzellente Schlussfolgerung, schnell

anthropic/claude-haiku-4.5

200k

Budget, sehr schnell

x-ai/grok-4.20

2M

Automatische Schlussfolgerung, riesiger Kontext

x-ai/grok-4.1-fast

2M

Größtes Kontextfenster

Kurze Mnemoniken:

  • gptt = openai/gpt-5.5 + think (neuestes GPT, tiefgehende Schlussfolgerung)

  • gemt = google/gemini-3.1-pro-preview + think (Gemini 3.1 Pro, Flaggschiff-Schlussfolgerung)

  • grot = x-ai/grok-4.20 + think (Grok 4.20, automatische Schlussfolgerung)

  • oput = anthropic/claude-opus-4.7 + think (Claude Opus, adaptives Denken)

  • opuf = anthropic/claude-opus-4.7 + fast (Claude Opus, keine Schlussfolgerung)

  • gemf = google/gemini-3-flash-preview + fast (Gemini 3 Flash, ultraschnell)

  • ULTRA = ruft GEMT, GPTT, GROT und OPUT PARALLEL auf (4 Spitzenmodelle für maximale Erkenntnisse)

Sie können jede OpenRouter-Modell-ID verwenden (z. B. deepseek/deepseek-r1-0528). Siehe die vollständige Modellliste. Dateigrößenlimits werden automatisch basierend auf dem Kontextfenster jedes Modells berechnet.

Leistungsmodi

  • fast: Keine Schlussfolgerung – schnelle Antworten, einfache Aufgaben

  • mid: Moderate Schlussfolgerung – Code-Reviews, Fehleranalyse

  • think: Maximale Schlussfolgerung – Sicherheitsaudits, komplexes Refactoring

Regeln für Dateispezifikationen

  • Nur absolute Pfade: /Users/john/project/src/*.py

  • Platzhalter nur in Dateinamen: /Users/john/project/*.py (nicht in Verzeichnispfaden)

  • Erweiterung bei Platzhaltern erforderlich: *.py nicht *

  • Dateien und Muster mischen: ["/path/src/*.py", "/path/README.md", "/path/tests/*_test.py"]

Häufige Muster:

  • Alle Python-Dateien: /path/to/dir/*.py

  • Testdateien: /path/to/tests/*_test.py oder /path/to/tests/test_*.py

  • Mehrere Erweiterungen: ["/path/*.js", "/path/*.ts"]

Automatisch ignoriert: __pycache__, .env, secrets.py, .DS_Store, .git, node_modules

Größenlimits: Dynamisch basierend auf dem Kontextfenster des Modells (z. B. Grok 4.20: ~8MB, GPT-5.5: ~4MB)

Tool-Parameter

Das Konsultations-Tool akzeptiert die folgenden Parameter:

  • files (erforderlich): Liste absoluter Dateipfade oder Muster mit Platzhaltern nur in Dateinamen

  • query (erforderlich): Ihre Frage oder Anweisung an das LLM zur Verarbeitung der Dateien

  • model (erforderlich): Das zu verwendende LLM-Modell (siehe Unterstützte Modelle oben)

  • mode (erforderlich): Leistungsmodus – fast, mid oder think

  • output_file (optional): Absoluter Pfad, um die Antwort in einer Datei zu speichern, anstatt sie zurückzugeben

    • Wenn die Datei existiert, wird sie mit dem Suffix _updated gespeichert (z. B. report.mdreport_updated.md)

    • Wenn angegeben, wird nur Folgendes zurückgegeben: "Ergebnis wurde in /path/to/file gespeichert"

    • Nützlich zum Generieren von Berichten, Dokumentationen oder Analysen, ohne den Kontext des Agenten zu überfluten

  • zdr (optional): Aktiviert Zero Data Retention-Routing (Standard: false)

    • Wenn true, wird nur an Endpunkte mit ZDR-Richtlinie weitergeleitet (Prompts werden vom Anbieter nicht gespeichert)

    • ZDR verfügbar: Gemini 3.1 Pro/Flash, Claude Opus 4.7, GPT-5

    • Nicht verfügbar: GPT-5.5, Grok 4.20 (gibt Fehler zurück)

Anwendungsbeispiele

Via MCP in Claude Code

Claude Code verwendet das Tool automatisch mit den richtigen Parametern:

{
  "files": ["/Users/john/project/src/*.py"],
  "query": "Explain the main architecture",
  "model": "google/gemini-3-flash-preview",
  "mode": "fast"
}

Via Python-API

from consult7.consultation import consultation_impl

result = await consultation_impl(
    files=["/path/to/file.py"],
    query="Explain this code",
    model="google/gemini-3-flash-preview",
    mode="fast",  # fast, mid, or think
    provider="openrouter",
    api_key="sk-or-v1-..."
)

Testen

# Test OpenRouter connection
uvx consult7 sk-or-v1-your-api-key --test

Deinstallation

Um consult7 aus Claude Code zu entfernen:

claude mcp remove consult7 -s user

Versionsgeschichte

v3.6.0

  • Aktualisierte Modelle: GPT-5.5, Claude Opus 4.7, Grok 4.20

  • Claude Opus 4.7 (1M Kontext) verwendet adaptives Denken — reasoning.enabled=true

  • Grok 4.20 (2M Kontext) verwendet automatische Schlussfolgerung — reasoning.enabled=true

  • Aktualisierte Mnemoniken: gptt → GPT-5.5, oput/opuf → Claude Opus 4.7, grot → Grok 4.20

  • Legacy-Modell-IDs werden weiterhin unterstützt

v3.5.0

  • Upgrade GPT-5.2 → GPT-5.4 (~1M Kontext)

v3.4.0

  • Aktualisierte Modelle: Gemini 3.1 Pro, Claude Opus 4.6, Claude Sonnet 4.6, Grok 4.1 Fast

  • Neue Modelle hinzugefügt: Claude Haiku 4.5, Gemini 3.1 Flash Lite

  • Aktualisierte Mnemoniken: gemt → Gemini 3.1 Pro, oput/opuf → Claude Opus 4.6

  • Legacy-Modell-IDs werden weiterhin unterstützt

v3.3.0

  • Problem mit der Kürzung im Denkmodus von GPT-5.2 behoben (auf Streaming umgestellt)

  • google/gemini-3-flash-preview hinzugefügt (Gemini 3 Flash, ultraschnell)

  • gemf-Mnemonik auf Gemini 3 Flash aktualisiert

  • zdr-Parameter für Zero Data Retention-Routing hinzugefügt

v3.2.0

  • Aktualisiert auf GPT-5.2 mit aufwandsbasierter Schlussfolgerung

v3.1.0

  • google/gemini-3-pro-preview hinzugefügt (1M Kontext, Flaggschiff-Modell für Schlussfolgerungen)

  • Neue Mnemoniken: gemt (Gemini 3 Pro), grot (Grok 4), ULTRA (parallele Ausführung)

v3.0.0

  • Direkte Anbieter Google und OpenAI entfernt – jetzt nur noch OpenRouter

  • |thinking-Suffix entfernt – stattdessen mode-Parameter verwenden (jetzt erforderlich)

  • Saubere mode-Parameter-API: fast, mid, think

  • CLI von consult7 <provider> <key> auf consult7 <key> vereinfacht

  • Bessere MCP-Integration mit Enum-Validierung für Modi

  • Dynamische Dateigrößenlimits basierend auf dem Kontextfenster des Modells

v2.1.0

  • output_file-Parameter zum Speichern von Antworten in Dateien hinzugefügt

v2.0.0

  • Neue Dateilisten-Schnittstelle mit vereinfachter Validierung

  • Dateigrößenlimits auf realistische Werte reduziert

Lizenz

MIT

A
license - permissive license
-
quality - not tested
C
maintenance

Maintenance

Maintainers
Response time
Release cycle
1Releases (12mo)
Issues opened vs closed

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/szeider/consult7'

If you have feedback or need assistance with the MCP directory API, please join our Discord server