CoRT MCP-Server
Dies ist ein Chain-of-Recursive-Thoughts (CORT) MCP-Server. Das Originalprojekt ist wie folgt, ich schätze die Originalarbeit sehr.
Original: PhialsBasement/Chain-of-Recursive-Thoughts: Ich habe meine KI dazu gebracht, intensiver zu denken, indem ich sie wiederholt mit sich selbst streiten ließ. Das funktioniert unglaublich gut.
https://github.com/PhialsBasement/Chain-of-Recursive-Thoughts
Freigabevermerk
0.2.0 LLM-Liste aktualisiert 0.1.0 Erstveröffentlichung
Merkmale
- Die über den MCP-Server verfügbare CoRT-Methode lässt die KI durch wiederholtes Selbstdiskutieren zum Nachdenken anregen. Funktioniert unglaublich gut.
Gearbeiteter Scheck
Roo-Code / Cline
MCP-Hostkonfiguration
300 Sekunden Timeout empfohlen. (Kann manchmal länger dauern als erwartet) OPENROUTER_API_KEY ist erforderlich. https://openrouter.ai/
Beispiel: Protokollierung deaktiviert
Beispiel: Protokollierung aktiviert (absoluter Protokolldateipfad erforderlich)
--log=off
: Deaktiviert die gesamte Protokollierung (es werden keine Protokolle geschrieben)--log=on --logfile=/absolute/path/to/logfile.log
: Protokollierung aktivieren und Protokolle in den angegebenen absoluten Dateipfad schreiben- Beide Argumente sind erforderlich , wenn die Protokollierung aktiviert ist. Der Server wird mit einem Fehler beendet, wenn eines der Argumente fehlt, der Pfad nicht absolut ist oder ungültige Werte angegeben werden.
Notiz:
- Wenn die Protokollierung aktiviert ist, werden Protokolle nur in den angegebenen absoluten Dateipfad geschrieben. Relative Pfade oder das Weglassen von
--logfile
führen zu einem Fehler.- Wenn die Protokollierung deaktiviert ist, werden keine Protokolle ausgegeben.
- Wenn die erforderlichen Argumente fehlen oder ungültig sind, startet der Server nicht und gibt eine Fehlermeldung aus.
- Die Protokolldatei muss für den MCP-Serverprozess zugänglich und beschreibbar sein.
- Wenn Sie Probleme beim Ausführen dieses Servers haben, liegt dies möglicherweise daran, dass eine ältere Version von Cort-MCP zwischengespeichert wird. Versuchen Sie, ihn mit der neuesten Version von Cort-MCP auszuführen (setzen Sie
xyz
auf die neueste Version ein), indem Sie die folgenden Einstellungen verwenden.
Verfügbare Werkzeuge
- {toolname}.simple Keine Details, gibt nur die endgültig ausgewählte Alternative aus.
- {toolname}.details Enthält Details zum LLM-Antwortverlauf.
- {toolname}.mixed.llm Multi-LLM-Inferenz.
- {toolname}.neweval Neue Auswertungsaufforderung.
Überprüfen Sie die folgenden Details.
Was ist CoRT?
Wesentliche Verbesserung gegenüber dem Original
Es gibt mehrere Verbesserungen gegenüber der ursprünglichen CoRT-Methodik.
- Multi-LLM-Inferenz : Jede Alternative wird zufällig mit einem anderen LLM (Modell + Anbieter) generiert.
- Verbesserung der Auswertung : Die Eingabeaufforderung wurde aktualisiert, indem eine Eingabeaufforderung hinzugefügt wurde, in der die KI ihre Argumentation erläutert. (Die ursprüngliche Eingabeaufforderung ist über Tools verfügbar.)
Multi-LLM-Inferenz
Übersicht: Dies ist ein neues Tool, das den herkömmlichen CoRT-Denkablauf um eine Explorationsstrategie ergänzt, bei der für jede Alternative zufällig verschiedene LLM (Modell + Anbieter) ausgewählt werden. Dadurch können Sie das Wissen und die Ideen heterogener Modelle optimal nutzen und aus einer größeren Auswahl an Optionen die optimale Lösung auswählen.
- Die Funktion ist über verschiedene LLM-Tools verfügbar.
Die Liste der LLMs
- Für ein besseres Benutzererlebnis werden relativ leichtere und schnellere Modelle ausgewählt.
gemischter LLM-Tool-Prozess.
- Wählen Sie für jede Alternative zufällig ein LLM (Modell + Anbieter) aus der obigen Liste aus
- Notieren Sie im Protokoll immer, „welches Modell und welcher Anbieter verwendet wurde“, für jede generierte Alternative
- Im Detailmodus müssen Sie in den Antwortverlaufsinformationen explizit „für jede Alternative verwendetes Modell und Anbieter“ einschließen.
Verbesserung der Auswertung
Übersicht: Die Bewertungsaufforderung wurde ausführlicher geändert. (Die ursprüngliche Eingabeaufforderung ist über Tools verfügbar.) Verwenden Sie die Eingabeaufforderung von {toolname}.neweval, in der die KI aufgefordert wird, ihre Argumentation zu erläutern.
Ursprüngliche Eingabeaufforderung
Verbesserte Eingabeaufforderung
Parameterspezifikation und Fallback-Verarbeitung
Diese API ermittelt das tatsächlich zu verwendende Modell basierend auf den angegebenen provider
und model
, mit Fallback-Verarbeitung im Fehlerfall.
- Anbieter (
provider
) Auflösung- Wenn nicht angegeben :
openrouter
wird als Standardanbieter verwendet. - Wenn ein ungültiger Wert angegeben wird (außer
openai
oderopenrouter
): Es wird auf den Standardanbieteropenrouter
zurückgegriffen.
- Wenn nicht angegeben :
- Modell (
model
) Auflösung- Wenn nicht angegeben :
- Wenn der aufgelöste Anbieter
openrouter
ist: Das Standardmodellmistralai/mistral-small-3.1-24b-instruct:free
wird verwendet. - Wenn der aufgelöste Anbieter
openai
ist: Das Standardmodell von OpenAI wird verwendet.
- Wenn der aufgelöste Anbieter
- Wenn angegeben (mit einem gültigen Anbieter) :
- Der angegebene Modellname wird unverändert mit dem aufgelösten Anbieter verwendet.
- Wichtig : An dieser Stelle wird nicht geprüft, ob der angegebene Modellname tatsächlich beim Anbieter existiert.
- Wenn nicht angegeben :
- API-Aufruf und Fehler-Fallback
- Ein API-Aufruf wird zunächst mit der durch die oben genannten Regeln aufgelösten Anbieter- und Modellkombination versucht.
- Wenn beim API-Aufruf ein Fehler auftritt (z. B. das angegebene Modell ist beim Anbieter nicht vorhanden, ein Authentifizierungsfehler beim API-Schlüssel usw.):
- Bedingung 1 : Der Anbieter des ersten Anrufversuchs ist nicht
openai
. - Bedingung 2 : Die Umgebungsvariable
OPENAI_API_KEY
ist im System festgelegt. - Wenn beide oben genannten Bedingungen erfüllt sind, wiederholt das System den Vorgang automatisch mit dem Standardmodell des
openai
Anbieters (dies ist die Fallback-Verarbeitung). - Wenn eine oder beide der oben genannten Bedingungen nicht erfüllt sind (z. B. der erste Versuch erfolgte mit
openai
oderOPENAI_API_KEY
ist nicht festgelegt), wird der ursprüngliche Fehler als Endergebnis zurückgegeben und diese Art von Fallback tritt nicht auf.
- Bedingung 1 : Der Anbieter des ersten Anrufversuchs ist nicht
Hinweise zu Umgebungsvariablen:
OPENROUTER_API_KEY
ist zur Verwendungopenrouter
erforderlich.OPENAI_API_KEY
ist erforderlich, umopenai
zu verwenden oder die obige Fallback-Funktion zu nutzen.- Wenn der entsprechende API-Schlüssel nicht festgelegt ist, schlägt der API-Aufruf fehl (der Fallback auf OpenAI schlägt je nach Fallback-Bedingungen ebenfalls fehl).
Lizenz
MIT
Lass es krachen
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Ein MCP-Server, der die Chain-of-Recursive-Thoughts-Methode (CoRT) implementiert, die KI zum Denken anregt, indem sie sie in mehreren Runden der Alternativengenerierung und -bewertung wiederholt mit sich selbst argumentieren lässt.
Related MCP Servers
- AsecurityAlicenseAqualityThis is a MCP server that implements an unreasonable thinking system. It helps generate unconventional solutions: Generating unreasonable thoughts that challenge conventional wisdom. Creating branches of thinking in different directionsLast updated -316JavaScriptMIT License
- -securityAlicense-qualityAn MCP server that implements the 'think' tool, providing Claude with a dedicated space for structured thinking during complex problem-solving tasks to improve reasoning capabilities.Last updated -48PythonMIT License
- -securityAlicense-qualityA minimal MCP Server that provides Claude AI models with the 'think' tool capability, enabling better performance on complex reasoning tasks by allowing the model to pause during response generation for additional thinking steps.Last updated -5251TypeScriptMIT License
- -securityFlicense-qualityAn advanced MCP server that implements sophisticated sequential thinking using a coordinated team of specialized AI agents (Planner, Researcher, Analyzer, Critic, Synthesizer) to deeply analyze problems and provide high-quality, structured reasoning.Last updated -124Python