Skip to main content
Glama

CoRT MCP Server

CoRT MCP-Server

Dies ist ein Chain-of-Recursive-Thoughts (CORT) MCP-Server. Das Originalprojekt ist wie folgt, ich schätze die Originalarbeit sehr.

Original: PhialsBasement/Chain-of-Recursive-Thoughts: Ich habe meine KI dazu gebracht, intensiver zu denken, indem ich sie wiederholt mit sich selbst streiten ließ. Das funktioniert unglaublich gut.
https://github.com/PhialsBasement/Chain-of-Recursive-Thoughts

Freigabevermerk

0.2.0 LLM-Liste aktualisiert 0.1.0 Erstveröffentlichung

Merkmale

  • Die über den MCP-Server verfügbare CoRT-Methode lässt die KI durch wiederholtes Selbstdiskutieren zum Nachdenken anregen. Funktioniert unglaublich gut.

Gearbeiteter Scheck

Roo-Code / Cline

MCP-Hostkonfiguration

300 Sekunden Timeout empfohlen. (Kann manchmal länger dauern als erwartet) OPENROUTER_API_KEY ist erforderlich. https://openrouter.ai/

Beispiel: Protokollierung deaktiviert

"CoRT-chain-of-recursive-thinking": { "command": "pipx", "args": ["run", "cort-mcp", "--log=off"], "env": { "OPENAI_API_KEY": "{apikey}", "OPENROUTER_API_KEY": "{apikey}" } }

Beispiel: Protokollierung aktiviert (absoluter Protokolldateipfad erforderlich)

"CoRT-chain-of-recursive-thinking": { "command": "pipx", "args": ["run", "cort-mcp", "--log=on", "--logfile=/workspace/logs/cort-mcp.log"], "env": { "OPENAI_API_KEY": "{apikey}", "OPENROUTER_API_KEY": "{apikey}" } }
  • --log=off : Deaktiviert die gesamte Protokollierung (es werden keine Protokolle geschrieben)
  • --log=on --logfile=/absolute/path/to/logfile.log : Protokollierung aktivieren und Protokolle in den angegebenen absoluten Dateipfad schreiben
  • Beide Argumente sind erforderlich , wenn die Protokollierung aktiviert ist. Der Server wird mit einem Fehler beendet, wenn eines der Argumente fehlt, der Pfad nicht absolut ist oder ungültige Werte angegeben werden.

Notiz:

  • Wenn die Protokollierung aktiviert ist, werden Protokolle nur in den angegebenen absoluten Dateipfad geschrieben. Relative Pfade oder das Weglassen von --logfile führen zu einem Fehler.
  • Wenn die Protokollierung deaktiviert ist, werden keine Protokolle ausgegeben.
  • Wenn die erforderlichen Argumente fehlen oder ungültig sind, startet der Server nicht und gibt eine Fehlermeldung aus.
  • Die Protokolldatei muss für den MCP-Serverprozess zugänglich und beschreibbar sein.
  • Wenn Sie Probleme beim Ausführen dieses Servers haben, liegt dies möglicherweise daran, dass eine ältere Version von Cort-MCP zwischengespeichert wird. Versuchen Sie, ihn mit der neuesten Version von Cort-MCP auszuführen (setzen Sie xyz auf die neueste Version ein), indem Sie die folgenden Einstellungen verwenden.
"CoRT-chain-of-recursive-thinking": { "command": "pipx", "args": ["run", "cort-mcp==x.y.z", "--log=off"], "env": { "OPENAI_API_KEY": "{apikey}", "OPENROUTER_API_KEY": "{apikey}" } }

Verfügbare Werkzeuge

  • {toolname}.simple Keine Details, gibt nur die endgültig ausgewählte Alternative aus.
  • {toolname}.details Enthält Details zum LLM-Antwortverlauf.
  • {toolname}.mixed.llm Multi-LLM-Inferenz.
  • {toolname}.neweval Neue Auswertungsaufforderung.

Überprüfen Sie die folgenden Details.

Was ist CoRT?

Wesentliche Verbesserung gegenüber dem Original

Es gibt mehrere Verbesserungen gegenüber der ursprünglichen CoRT-Methodik.

  1. Multi-LLM-Inferenz : Jede Alternative wird zufällig mit einem anderen LLM (Modell + Anbieter) generiert.
  2. Verbesserung der Auswertung : Die Eingabeaufforderung wurde aktualisiert, indem eine Eingabeaufforderung hinzugefügt wurde, in der die KI ihre Argumentation erläutert. (Die ursprüngliche Eingabeaufforderung ist über Tools verfügbar.)

Multi-LLM-Inferenz

Übersicht: Dies ist ein neues Tool, das den herkömmlichen CoRT-Denkablauf um eine Explorationsstrategie ergänzt, bei der für jede Alternative zufällig verschiedene LLM (Modell + Anbieter) ausgewählt werden. Dadurch können Sie das Wissen und die Ideen heterogener Modelle optimal nutzen und aus einer größeren Auswahl an Optionen die optimale Lösung auswählen.

  • Die Funktion ist über verschiedene LLM-Tools verfügbar.

Die Liste der LLMs

  • Für ein besseres Benutzererlebnis werden relativ leichtere und schnellere Modelle ausgewählt.
MIXED_LLM_LIST = [ {"provider": "openai", "model": "gpt-4.1-nano"}, {"provider": "openrouter", "model": "meta-llama/llama-4-scout:free"}, {"provider": "openrouter", "model": "google/gemini-2.0-flash-exp:free"}, {"provider": "openrouter", "model": "mistralai/mistral-small-3.1-24b-instruct:free"}, {"provider": "openrouter", "model": "meta-llama/llama-3.2-3b-instruct:free"}, {"provider": "openrouter", "model": "thudm/glm-4-9b:free"}, ]

gemischter LLM-Tool-Prozess.

  • Wählen Sie für jede Alternative zufällig ein LLM (Modell + Anbieter) aus der obigen Liste aus
  • Notieren Sie im Protokoll immer, „welches Modell und welcher Anbieter verwendet wurde“, für jede generierte Alternative
  • Im Detailmodus müssen Sie in den Antwortverlaufsinformationen explizit „für jede Alternative verwendetes Modell und Anbieter“ einschließen.

Verbesserung der Auswertung

Übersicht: Die Bewertungsaufforderung wurde ausführlicher geändert. (Die ursprüngliche Eingabeaufforderung ist über Tools verfügbar.) Verwenden Sie die Eingabeaufforderung von {toolname}.neweval, in der die KI aufgefordert wird, ihre Argumentation zu erläutern.

Ursprüngliche Eingabeaufforderung

f"""Original message: {prompt} Evaluate these responses and choose the best one: Current best: {current_best} Alternatives: {chr(10).join([f"{i+1}. {alt}" for i, alt in enumerate(alternatives)])} Which response best addresses the original message? Consider accuracy, clarity, and completeness. First, respond with ONLY 'current' or a number (1-{len(alternatives)}). Then on a new line, explain your choice in one sentence."""

Verbesserte Eingabeaufforderung

f""" Original message: {prompt} You are an expert evaluator tasked with selecting the response that best fulfills the user's true needs, considering multiple perspectives. Current best: {current_best} Alternatives: {chr(10).join([f"{i+1}. {alt}" for i, alt in enumerate(alternatives)])} Please follow this evaluation process: Intent Analysis: What is the user REALLY seeking? What underlying needs might be present beyond the surface question? Context Consideration: What possible situations or backgrounds could this question arise from? Diversity Assessment: Does the response consider different viewpoints or possible interpretations? Practicality Evaluation: How useful would the response be in the user's real-world context? Consistency Check: Is the response internally consistent and logically coherent? For each response (including the current best): Does it solve the user's TRUE problem? Does it balance accuracy and usefulness? Does it avoid unnecessary assumptions or biases? Is it flexible enough to apply in various contexts or situations? Does it account for exceptions or special cases? After completing your evaluation: Indicate your choice with ONLY 'current' or a number (1-{len(alternatives)}). On the next line, explain specifically why this response best meets the user's true needs. """

Parameterspezifikation und Fallback-Verarbeitung

Diese API ermittelt das tatsächlich zu verwendende Modell basierend auf den angegebenen provider und model , mit Fallback-Verarbeitung im Fehlerfall.

  1. Anbieter ( provider ) Auflösung
    • Wenn nicht angegeben : openrouter wird als Standardanbieter verwendet.
    • Wenn ein ungültiger Wert angegeben wird (außer openai oder openrouter ): Es wird auf den Standardanbieter openrouter zurückgegriffen.
  2. Modell ( model ) Auflösung
    • Wenn nicht angegeben :
      • Wenn der aufgelöste Anbieter openrouter ist: Das Standardmodell mistralai/mistral-small-3.1-24b-instruct:free wird verwendet.
      • Wenn der aufgelöste Anbieter openai ist: Das Standardmodell von OpenAI wird verwendet.
    • Wenn angegeben (mit einem gültigen Anbieter) :
      • Der angegebene Modellname wird unverändert mit dem aufgelösten Anbieter verwendet.
      • Wichtig : An dieser Stelle wird nicht geprüft, ob der angegebene Modellname tatsächlich beim Anbieter existiert.
  3. API-Aufruf und Fehler-Fallback
    • Ein API-Aufruf wird zunächst mit der durch die oben genannten Regeln aufgelösten Anbieter- und Modellkombination versucht.
    • Wenn beim API-Aufruf ein Fehler auftritt (z. B. das angegebene Modell ist beim Anbieter nicht vorhanden, ein Authentifizierungsfehler beim API-Schlüssel usw.):
      • Bedingung 1 : Der Anbieter des ersten Anrufversuchs ist nicht openai .
      • Bedingung 2 : Die Umgebungsvariable OPENAI_API_KEY ist im System festgelegt.
      • Wenn beide oben genannten Bedingungen erfüllt sind, wiederholt das System den Vorgang automatisch mit dem Standardmodell des openai Anbieters (dies ist die Fallback-Verarbeitung).
      • Wenn eine oder beide der oben genannten Bedingungen nicht erfüllt sind (z. B. der erste Versuch erfolgte mit openai oder OPENAI_API_KEY ist nicht festgelegt), wird der ursprüngliche Fehler als Endergebnis zurückgegeben und diese Art von Fallback tritt nicht auf.

Hinweise zu Umgebungsvariablen:

  • OPENROUTER_API_KEY ist zur Verwendung openrouter erforderlich.
  • OPENAI_API_KEY ist erforderlich, um openai zu verwenden oder die obige Fallback-Funktion zu nutzen.
  • Wenn der entsprechende API-Schlüssel nicht festgelegt ist, schlägt der API-Aufruf fehl (der Fallback auf OpenAI schlägt je nach Fallback-Bedingungen ebenfalls fehl).

Lizenz

MIT

Lass es krachen

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Ein MCP-Server, der die Chain-of-Recursive-Thoughts-Methode (CoRT) implementiert, die KI zum Denken anregt, indem sie sie in mehreren Runden der Alternativengenerierung und -bewertung wiederholt mit sich selbst argumentieren lässt.

  1. Freigabevermerk
    1. Merkmale
      1. Gearbeiteter Scheck
        1. MCP-Hostkonfiguration
          1. Beispiel: Protokollierung deaktiviert
          2. Beispiel: Protokollierung aktiviert (absoluter Protokolldateipfad erforderlich)
        2. Verfügbare Werkzeuge
          1. Was ist CoRT?
            1. Wesentliche Verbesserung gegenüber dem Original
              1. Multi-LLM-Inferenz
              2. Die Liste der LLMs
              3. gemischter LLM-Tool-Prozess.
            2. Verbesserung der Auswertung
              1. Ursprüngliche Eingabeaufforderung
              2. Verbesserte Eingabeaufforderung
              3. Parameterspezifikation und Fallback-Verarbeitung
            3. Lizenz

              Related MCP Servers

              • A
                security
                A
                license
                A
                quality
                This is a MCP server that implements an unreasonable thinking system. It helps generate unconventional solutions: Generating unreasonable thoughts that challenge conventional wisdom. Creating branches of thinking in different directions
                Last updated -
                3
                16
                JavaScript
                MIT License
                • Apple
              • -
                security
                A
                license
                -
                quality
                An MCP server that implements the 'think' tool, providing Claude with a dedicated space for structured thinking during complex problem-solving tasks to improve reasoning capabilities.
                Last updated -
                48
                Python
                MIT License
                • Linux
                • Apple
              • -
                security
                A
                license
                -
                quality
                A minimal MCP Server that provides Claude AI models with the 'think' tool capability, enabling better performance on complex reasoning tasks by allowing the model to pause during response generation for additional thinking steps.
                Last updated -
                525
                1
                TypeScript
                MIT License
                • Apple
              • -
                security
                F
                license
                -
                quality
                An advanced MCP server that implements sophisticated sequential thinking using a coordinated team of specialized AI agents (Planner, Researcher, Analyzer, Critic, Synthesizer) to deeply analyze problems and provide high-quality, structured reasoning.
                Last updated -
                124
                Python
                • Linux
                • Apple

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/KunihiroS/cort-mcp'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server