MCP-Denkfabrik
Überblick
MCP Think Tank ist ein leistungsstarker Model Context Protocol (MCP)-Server, der die Fähigkeiten von KI-Assistenten wie Cursor und Claude @Web erweitert. Er bietet eine strukturierte Umgebung für verbessertes Denken, persistenten Speicher und verantwortungsvollen Tool-Einsatz.
Zu den wichtigsten Funktionen gehören fortschrittliches sequentielles Denken und verkettetes Denken , ein robustes Knowledge Graph Memory- System mit Versionierung und intelligente Tool-Orchestrierung mit Call-Limit-Schutzmechanismen . Diese Plattform ermöglicht es KI, komplexe Probleme durch strukturierte Analysen zu lösen, Wissen über Sitzungen hinweg aufrechtzuerhalten und externe Ressourcen wie die Websuche zu nutzen – und das alles unter Einhaltung konfigurierbarer Nutzungsbeschränkungen.
🎯 Philosophie
MCP Think Tank basiert auf drei Kernprinzipien:
- Elegante Einfachheit : Minimale, gut gestaltete Tools, die die KI-Funktionen ergänzen, anstatt zu versuchen, sie zu replizieren.
- Verbesserte Reflexion : Sanfte Anleitung fördert besseres Denken und Selbstreflexion ohne starre Einschränkungen.
- Persistenter Kontext : Ein einfaches, aber effektives Wissensdiagramm bietet Gedächtnis für Gespräche.
Hauptmerkmale
- 💭 Denkwerkzeug : Spezieller Bereich für strukturiertes Denken und Selbstreflexion.
- 🧩 Wissensgraph : Einfaches und effektives persistentes Speichersystem.
- 📝 Tools zur Aufgabenverwaltung : Planen, verfolgen und aktualisieren Sie Aufgaben, integriert in das Wissensdiagramm.
- 🌐 Web-Recherche-Tools (Exa) : Durchsuchen Sie das Web und erhalten Sie mithilfe der Exa-API Antworten aus Quellen.
- 🔍 Memory Tools : Benutzerfreundliche Tools zum Speichern und Abrufen von Informationen aus dem Wissensgraphen.
- 🤝 Client-Support : Nahtlose Integration mit Cursor, Claude @Web und anderen MCP-Clients.
- 🛡️ Tool-Orchestrierung und Anruflimits : Integrierte Sicherheitsvorkehrungen für eine effiziente und verantwortungsvolle Tool-Nutzung mit konfigurierbaren Limits.
- ⚡ Inhalts-Caching : Leistungsoptimierung für Datei- und URL-Operationen mit automatischer Duplikatserkennung.
- 🔄 Sequentielles Denken : Ermöglicht mehrstufige Denkprozesse mit Fortschrittsverfolgung.
- 🔎 Selbstreflexion : Automatisierte Reflexionsdurchläufe zur Verbesserung der Argumentationsqualität.
- 📊 Strukturierte Ausgaben : Automatische Formatierung von Denkprozessen für bessere Lesbarkeit.
- 🔗 Forschungsintegration : Nahtlose Einbindung von Ergebnissen aus der Webrecherche in Argumentationsabläufe.
Vorteile des strukturierten Denkens
Durch die Nutzung des think
wird ein spezieller Raum für systematisches Denken geschaffen, der Folgendes fördert:
- Klare Problemdefinition
- Relevante Kontexterfassung
- Schritt-für-Schritt-Analyse
- Selbstreflexion über das Denken
- Wohlgeformte Schlussfolgerungen
Aktuelle Studien zeigen deutliche Verbesserungen durch strukturiertes Denken:
- 54 % relative Verbesserung bei komplexen Entscheidungsaufgaben.
- Verbesserte Konsistenz über mehrere Versuche hinweg.
- Verbesserte Leistung bei Software-Engineering-Benchmarks.
Detaillierte Funktionen
Über die Kernliste hinaus bietet MCP Think Tank ausgefeilte Funktionen für erweiterte KI-Interaktion.
Strukturiertes Denken (Denkwerkzeug)
Das think
ist der zentrale Mechanismus für fortgeschrittenes KI-Denken. Es bietet eine dedizierte, strukturierte Umgebung, in der die KI Probleme systematisch zerlegen, Kontext erfassen, Optionen analysieren und Selbstreflexion durchführen kann. Dies ermöglicht eine tiefere Analyse und qualitativ hochwertigere Ergebnisse im Vergleich zu unstrukturierten Antworten. Es unterstützt sequentielle Schritte und lässt sich nahtlos in Recherche- und Gedächtnistools integrieren.
Selbstreflexionsfunktion
Das Think-Tool enthält eine leistungsstarke Selbstreflexionsfunktion, die mit dem Parameter selfReflect: true
aktiviert werden kann:
Bei aktivierter Selbstreflexion erhält die KI die Aufforderung, über ihre eigenen Überlegungen nachzudenken. Dies folgt der MCP-Designphilosophie, KI-Fähigkeiten zu verbessern, anstatt sie zu ersetzen.
Mit dem Parameter reflectPrompt
können Sie die Eingabeaufforderung für die Reflexion anpassen und sie an bestimmte Denkaufgaben oder Domänen anpassen. Wenn dieser Parameter nicht angegeben ist, wird eine Standardeingabeaufforderung verwendet, die nach Inkonsistenzen, logischen Fehlern und Verbesserungsvorschlägen fragt.
Wissensgraph-Speicher
Der Wissensgraph bietet einen persistenten Speicher über verschiedene Interaktionen und Sitzungen hinweg. Er ermöglicht der KI, ein wachsendes Verständnis des Projekts, seiner Komponenten und der damit verbundenen Konzepte aufzubauen.
- Mit Zeitstempel versehene Beobachtungen : Alle Speichereinträge enthalten Metadaten zur Nachverfolgung.
- Duplikatsvermeidung : Intelligentes Entity-Matching vermeidet redundante Einträge.
- Automatische Verknüpfung : Heuristikbasierte Beziehungserstellung verbindet verwandte Konzepte (konfigurierbar).
- Erweiterte Abfragen : Filtern Sie Ihren Speicher nach Zeit, Tags, Schlüsselwörtern und mehr mit dem leistungsstarken Tool
memory_query
für historische Analysen und die Nachverfolgung der Konzeptentwicklung. Finden Sie mühelos aktuelle Einträge der letzten 48 Stunden oder eines beliebigen Zeitraums. - Speicherwartung : Tools zum Beschneiden und Verwalten des Speicherwachstums sind enthalten.
- Wichtige Speichertools : Tools wie
upsert_entities
,add_observations
,create_relations
,search_nodes
,memory_query
undopen_nodes
werden zur Interaktion mit dem Diagramm verwendet.
Tools zur Aufgabenverwaltung
Mithilfe einer Reihe von Tools kann die KI Projektaufgaben direkt im Gesprächsverlauf verwalten. Dadurch werden Planung und Ausführung in den Wissensgraphen integriert, sodass die KI den Projektstatus und die Prioritäten versteht.
Wichtige Aufgabentools
plan_tasks
: Erstellen Sie mehrere Aufgaben gleichzeitig mit Prioritäten und Abhängigkeitenlist_tasks
: Aufgaben nach Status und Priorität filternnext_task
: Ruft die Aufgabe mit der höchsten Priorität ab und markiert sie als in Bearbeitungcomplete_task
: Aufgaben als erledigt markierenupdate_tasks
: Aktualisieren Sie vorhandene Aufgaben mit neuen Informationen
Web-Recherche-Tools (Exa)
MCP Think Tank nutzt die Exa-API und bietet Tools zum Abrufen externer Informationen. Dadurch kann die KI auf aktuelle Informationen aus dem Internet zugreifen, um ihre Schlussfolgerungen zu untermauern und fundierte Antworten zu liefern.
exa_search
: Führen Sie Websuchen basierend auf einer Abfrage durch.exa_answer
: Erhalten Sie eine präzise, mit Quellenangaben versehene Antwort auf eine sachliche Frage.
Hinweis: Für die Verwendung dieser Tools müssen Sie Ihren Exa-API-Schlüssel konfigurieren. Weitere Informationen finden Sie im Abschnitt „Konfiguration“ .
Tool-Orchestrierung und Sicherheitsvorkehrungen
MCP Think Tank umfasst umfassende Funktionen, um sicherzustellen, dass die Tools verantwortungsvoll und effizient eingesetzt werden.
- Nutzungslimits : Eine konfigurierbare maximale Anzahl von Tool-Aufrufen pro Benutzerinteraktion (
TOOL_LIMIT
, Standard: 25). Das Limit zählt nur aufeinanderfolgende Tool-Aufrufe innerhalb einer einzelnen Benutzernachricht und wird automatisch zurückgesetzt, wenn der Benutzer eine neue Nachricht sendet. - Automatisches Tracking : Alle Tool-Aufrufe werden protokolliert und überwacht.
- Graceful Degradation : Wenn Grenzwerte erreicht werden, versucht das System, Teilergebnisse zurückzugeben.
- Intelligentes Caching : Identische Tool-Aufrufe und wiederholte Datei-/URL-Inhaltsabrufe werden automatisch zwischengespeichert, was die Ausführungszeit und den Ressourcenverbrauch reduziert. Caching-Verhalten und -Größe sind konfigurierbar (
CACHE_TOOL_CALLS
,CONTENT_CACHE
). - Konfigurierbarer Zugriff : Durch die Whitelist von Tools können verfügbare Tools in bestimmten Kontexten eingeschränkt werden.
- Fehlerbehandlung : Eine robuste Fehlerbehandlung bietet klares Feedback bei Problemen wie dem Erreichen von Grenzwerten oder ungültigen Toolaufrufen.
📦 Installation
⚠️ Wichtiger Hinweis LESEN SIE DIES: Wenn Sie in Cursor oder Claude auf eine neue Version von MCP Think Tank aktualisieren, erstellen Sie möglicherweise mehrere Instanzen des MCP Think Tank-Servers, wodurch zusätzliche Node.js-Instanzen erstellt werden und die Systemleistung beeinträchtigt wird. Dies ist ein bekanntes Problem bei MCP-Servern. Beenden Sie alle MCP-Think-Tank-Prozesse in Ihrem System und überprüfen Sie, ob nur eine Node.js-Instanz ausgeführt wird.
⚠️ Die Datei tasks.jsonl befindet sich in ~/.mcp-think-tank/. Die Datei ist von der kg-Datei getrennt, da der Think Tank durch zuvor erstellte Aufgaben in der kg-Datei verwirrt werden könnte. Löschen Sie den Inhalt der Datei tasks.jsonl, wenn die Datei zu groß wird oder wenn Sie ein neues Projekt starten und sicherstellen möchten, dass die Datei keine Aufgaben enthält. In einer zukünftigen Version werden Aufgaben möglicherweise mit der kg-Datei zusammengeführt, um sicherzustellen, dass abgeschlossene Aufgaben und Beziehungen im Speicher gespeichert bleiben und keine doppelten Aufgaben vorhanden sind.
NPX (empfohlen)
Der einfachste Weg, MCP Think Tank zu verwenden, ist über NPX in Cursor mithilfe der Datei mcp.json, die die neueste Version ohne globale Installation ausführt.
Für die neueste Version (die möglicherweise Kompatibilitätsprobleme aufweist):
einige Benutzer haben Probleme mit npx @latest in Cursor. Versuchen Sie in diesem Fall, die Version mcp-think-tank@2.0.7 in der JSON-Datei anzugeben oder sie global zu installieren:
Globale Installation
Für ein persistentes Befehlszeilentool:
⚙️ Konfiguration
MCP Think Tank wird hauptsächlich über Umgebungsvariablen oder über die Konfiguration Ihres MCP-Clients (wie Cursors .cursor/mcp.json
) konfiguriert.
Schnellstart: Grundlegende Einrichtung
- Installieren Sie MCP Think Tank (siehe Installation oben).
- Holen Sie sich Ihren Exa-API-Schlüssel (erforderlich für Websuchtools):
- Melden Sie sich bei exa.ai an und kopieren Sie Ihren API-Schlüssel.
- WICHTIGE STDIO-SERVER SIND VERALTET – Die MCP-Branche bewegt sich in Richtung HTTP-basierter Transporte. – ZUKÜNFTIGE UPDATES WERDEN STDIO-SERVER NICHT UNTERSTÜTZEN.
- Konfigurieren Sie Ihren MCP-Server (für Cursor fügen Sie ihn zu
.cursor/mcp.json
hinzu):
Wesentliche Variablen
MEMORY_PATH
: Erforderlich . Absoluter Pfad zur Speicherdatei. Wichtig: Legen Sie für jedes Projekt immer einen eindeutigenMEMORY_PATH
fest, um Konflikte im Wissensgraphen zwischen Projekten zu vermeiden. Falls nicht angegeben, wird standardmäßig~/.mcp-think-tank/memory.jsonl
verwendet.EXA_API_KEY
: Erforderlich für Exa-Websuchtools . Ihr API-Schlüssel von exa.ai.
Erweiterte Konfiguration
TOOL_LIMIT
: Maximale Anzahl an Tool-Aufrufen pro Benutzerinteraktion (Standard:25
). Der Zähler wird mit jeder neuen Benutzernachricht automatisch zurückgesetzt, sodass Sie innerhalb einer Interaktion bis zu 25 aufeinanderfolgende Tool-Aufrufe durchführen können.CACHE_TOOL_CALLS
: Aktivieren/Deaktivieren des Caching identischer Tool-Aufrufe (Standard:true
).TOOL_CACHE_SIZE
: Maximale Anzahl zwischengespeicherter Tool-Aufrufe (Standard:100
).CACHE_CONTENT
: Inhaltsbasiertes Caching für Datei-/URL-Operationen aktivieren/deaktivieren (Standard:true
).CONTENT_CACHE_SIZE
: Maximale Anzahl von Elementen im Inhaltscache (Standard:50
).CONTENT_CACHE_TTL
: Lebensdauer des zwischengespeicherten Inhalts in Millisekunden (Standard:300000
– 5 Minuten).MCP_DEBUG
: Debug-Protokollierung aktivieren (Standard:false
).MCP_LISTEN_PORT
: Benutzerdefinierten Port für MCP-Server festlegen (Standard:3399
für TCP-Server, nicht relevant fürstdio
).LOG_LEVEL
: Protokollierungsebene festlegen (debug
,info
,warn
,error
) (Standard:info
).AUTO_LINK
: Aktiviert die automatische Entitätsverknüpfung im Wissensgraphen (Standard:true
).
Speicherwartung
MIN_SIMILARITY_SCORE
: Schwellenwert für Entitätsübereinstimmung beim Verhindern von Duplikaten (Standard:0.85
).MAX_OPERATION_TIME
: Maximale Zeit für Batch-Speicheroperationen in Millisekunden (Standard:5000
).
Beispielkonfiguration mit erweiterten Einstellungen in .cursor/mcp.json
:
💡 Performance-Tipp: Bei großen Projekten kann eine Erhöhung
TOOL_LIMIT
und Cache-Größen die Leistung verbessern, allerdings auf Kosten eines höheren Speicherverbrauchs. Beobachten Sie Ihre Nutzungsmuster und passen Sie diese entsprechend an. Im Cursor sollte das Tool-Limit jedoch 25 betragen, um ein Erreichen des Limits und die Fortsetzung vom letzten Tool-Aufruf zu vermeiden. Derzeit berichten viele Cursor-Nutzer von Problemen mit der Fortsetzung in Version 0.49.6. Dies hat nichts mit MCP Think Tank zu tun.
💡 Hinweis: Wenn Sie Cursor im YOLO-Modus oder mit Vibe-Codierung verwenden, empfehle ich, neue Chats kontextbasiert vorzubereiten und Cursor mitzuteilen, dass er den MCP Think Tank zum Erstellen von Entitäten, Beobachtungen und Beziehungen verwenden soll. So holen Sie das Beste aus dem MCP Think Tank heraus.
Ein Beispiel für Kontext-Priming ist das Speichern einer Prime.md
Datei im Ordner .cursor
Ihres Projekts mit dem folgenden Inhalt:
Weitere Einzelheiten zu MCP-Servern finden Sie in der Cursor MCP-Dokumentation .
Projektregel-Setup (für Cursor/KI)
Um sicherzustellen, dass Cursor und andere kompatible Agenten die Tools von MCP Think Tank effektiv nutzen, müssen Sie die KI anleiten. Dies geschieht üblicherweise über eine Projektregel. Erstellen Sie eine einzelne Auto-Attach-Projektregel wie folgt:
1. Fügen Sie im Cursor eine neue Regel hinzu
- Cursor öffnen.
- Gehen Sie zur Befehlspalette (
Cmd+Shift+P
oderCtrl+Shift+P
). - Wählen Sie „Neue Cursorregel“ aus.
- Benennen Sie die Regel (z. B.
mcp-think-tank.mdc
). - Legen Sie im Regeleditor die Metadaten fest und fügen Sie den Regelinhalt aus dem folgenden Beispiel ein.
2. Beispiel-Regeldatei ( .cursor/rules/mcp-think-tank.mdc
)
Diese Markdown-Datei dient der KI als Kontext und gibt ihr Hinweise, wann und wie die verfügbaren Tools zu verwenden sind.
----- Beginn der Regel -----
----- Ende der Regel -----
⚡ Leistungsoptimierung
MCP Think Tank enthält integrierte Optimierungen, um einen effizienten Betrieb zu gewährleisten:
Inhalts-Caching
- Automatisches Caching von Datei- und URL-Inhalten basierend auf kryptografischem Hashing.
- Verhindert redundante Dateilesevorgänge und Netzwerkanforderungen.
- Beschleunigt wiederholte Vorgänge mit demselben Inhalt erheblich.
- Cachegröße und TTL sind über Umgebungsvariablen (
CONTENT_CACHE_SIZE
,CONTENT_CACHE_TTL
) konfigurierbar.
Tool Call Optimierung
- Identische Toolaufrufe innerhalb einer Sitzung werden automatisch erkannt und aus einem Cache bereitgestellt.
- Verhindert, dass doppelte Anrufe auf das Interaktionslimit angerechnet werden.
- Verbessert die Reaktionsfähigkeit bei wiederholten Tool-Anfragen.
- Die Cachegröße ist konfigurierbar (
TOOL_CACHE_SIZE
).
Bewährte Methoden
Für die optimale Nutzung von MCP Think Tank mit Cursor/Claude bei großen Projekten:
- Nutzen Sie das
think
für alle nicht trivialen Denk- und Entscheidungsprozesse. - Behalten Sie wichtige Gedanken, Schlussfolgerungen und Architekturentscheidungen immer mithilfe von Speichertools im Wissensgraphen.
- Integrieren Sie Webrecherche und Aufgabenverwaltung in Ihren Arbeitsablauf, um die KI informiert und konzentriert zu halten.
- Überprüfen und aktualisieren Sie den Wissensgraphen Ihres Projekts regelmäßig, um seine Genauigkeit und Relevanz sicherzustellen.
- Beziehen Sie sich auf vorhandenes Wissen und frühere Entscheidungen, um die Konsistenz in Code und Design aufrechtzuerhalten.
- Beachten Sie die Einschränkungen bei Tool-Aufrufen, insbesondere bei komplexen automatisierten Workflows. Überwachen Sie die Nutzung gegebenenfalls.
- Passen Sie die Konfigurationsvariablen (
TOOL_LIMIT
, Cache-Einstellungen) basierend auf den Anforderungen und der Komplexität Ihres Projekts an, um eine bessere Leistung zu erzielen.
🤝 Beitragen
Beiträge sind willkommen! Senden Sie gerne einen Pull Request.
- Forken Sie das Repository.
- Erstellen Sie Ihren Feature-Zweig (
git checkout -b feature/amazing-feature
). - Übernehmen Sie Ihre Änderungen (
git commit -m 'Add some amazing feature'
). - Pushen Sie zum Zweig (
git push origin feature/amazing-feature
). - Öffnen Sie eine Pull-Anfrage.
📄 Lizenz
Dieses Projekt ist unter der MIT-Lizenz lizenziert – Einzelheiten finden Sie in der Datei LICENSE .
📚 Referenzlinks
- Dokumentation der Cursorregeln
- MCP-Modellkontextprotokoll
- Exa API
- Anthropics Forschung zum strukturierten Denken
- Modellkontextprotokoll
- FastMCP
Tools
Bietet KI-Assistenten verbesserte Denkfähigkeiten durch strukturiertes Denken, persistenten Wissensgraphenspeicher und intelligente Tool-Orchestrierung zur Lösung komplexer Probleme.
- Überblick
- 🎯 Philosophie
- Hauptmerkmale
- Vorteile des strukturierten Denkens
- Detaillierte Funktionen
- 📦 Installation
- ⚙️ Konfiguration
- Projektregel-Setup (für Cursor/KI)
- ⚡ Leistungsoptimierung
- Bewährte Methoden
- 🤝 Beitragen
- 📄 Lizenz
Related Resources
Related MCP Servers
- AsecurityFlicenseAqualityProvides reasoning content to MCP-enabled AI clients by interfacing with Deepseek's API or a local Ollama server, enabling focused reasoning and thought process visualization.Last updated -15424JavaScript
- AsecurityAlicenseAqualityA server that enhances Claude's reasoning capabilities by integrating DeepSeek R1's advanced reasoning engine to tackle complex reasoning tasks.Last updated -1PythonMIT License
- AsecurityAlicenseAqualityEnhances AI model capabilities with structured, retrieval-augmented thinking processes that enable dynamic thought chains, parallel exploration paths, and recursive refinement cycles for improved reasoning.Last updated -115JavaScriptMIT License
- AsecurityAlicenseAqualityAoT MCP server enables AI models to solve complex reasoning problems by decomposing them into independent, reusable atomic units of thought, featuring a powerful decomposition-contraction mechanism that allows for deep exploration of problem spaces while maintaining high confidence in conclusions.Last updated -325JavaScriptMIT License