Integrations
Used to install the uv package manager on Linux/Mac systems
Provides instructions for cloning the repository
Supported platform for running the MCP server, with specific configuration file locations
Interaktives Feedback MCP
Entwickelt von Fábio Ferreira ( @fabiomlferreira ). Weitere Verbesserungen bei der KI-Entwicklung finden Sie auf dotcursorrules.com .
Einfacher MCP-Server für einen Human-in-the-Loop-Workflow in KI-gestützten Entwicklungstools wie Cursor . Mit diesem Server können Sie Befehle ausführen, deren Ausgabe anzeigen und Textfeedback direkt an die KI senden. Er ist außerdem mit Cline und Windsurf kompatibel.
Prompt Engineering
Um die besten Ergebnisse zu erzielen, fügen Sie Ihrer benutzerdefinierten Eingabeaufforderung in Ihrem KI-Assistenten Folgendes hinzu. Sie sollten es einer Regel oder direkt in der Eingabeaufforderung (z. B. Cursor) hinzufügen:
Wenn Sie eine Frage stellen möchten, rufen Sie immer das MCP
interactive_feedback
auf.
Wenn Sie eine Benutzeranfrage abschließen möchten, rufen Sie den MCPinteractive_feedback
auf, anstatt den Prozess einfach zu beenden. Wenn das Feedback leer ist, können Sie die Anfrage beenden und den MCP nicht in einer Schleife aufrufen.
Dadurch wird sichergestellt, dass Ihr KI-Assistent diesen MCP-Server verwendet, um Benutzerfeedback anzufordern, bevor er die Aufgabe als erledigt markiert.
💡 Warum dies verwenden?
Indem der Assistent beim Benutzer nachfragt, anstatt spekulative, kostenintensive Tool-Aufrufe durchzuführen, kann dieses Modul die Anzahl von Premium-Anfragen (z. B. OpenAI-Tool-Aufrufe) auf Plattformen wie Cursor drastisch reduzieren. In manchen Fällen hilft es, bis zu 25 Tool-Aufrufe in einer einzigen, Feedback-basierten Anfrage zu konsolidieren – das spart Ressourcen und verbessert die Leistung.
Konfiguration
Dieser MCP-Server verwendet Qts QSettings
, um Konfigurationen projektbezogen zu speichern. Dies umfasst:
- Der auszuführende Befehl.
- Ob der Befehl beim nächsten Start für dieses Projekt automatisch ausgeführt werden soll (siehe Kontrollkästchen „Beim nächsten Start automatisch ausführen“).
- Der Sichtbarkeitsstatus (angezeigt/ausgeblendet) des Befehlsbereichs (dieser wird beim Umschalten sofort gespeichert).
- Fenstergeometrie und -status (allgemeine UI-Einstellungen).
Diese Einstellungen werden normalerweise an plattformspezifischen Speicherorten (z. B. Registrierung unter Windows, plist-Dateien unter macOS, Konfigurationsdateien in ~/.config
oder ~/.local/share
unter Linux) unter dem Organisationsnamen „FabioFerreira“ und dem Anwendungsnamen „InteractiveFeedbackMCP“ gespeichert, mit einer eindeutigen Gruppe für jedes Projektverzeichnis.
Die Schaltfläche „Konfiguration speichern“ in der Benutzeroberfläche speichert in erster Linie den aktuell im Befehlseingabefeld eingegebenen Befehl und den Status des Kontrollkästchens „Beim nächsten Start automatisch ausführen“ für das aktive Projekt. Die Sichtbarkeit des Befehlsbereichs wird automatisch gespeichert, wenn Sie ihn umschalten. Die allgemeine Fenstergröße und -position werden beim Schließen der Anwendung gespeichert.
Installation (Cursor)
- Voraussetzungen:
- Python 3.11 oder neuer.
- uv (Python-Paketmanager). Installieren Sie es mit:
- Windows:
pip install uv
- Linux/Mac:
curl -LsSf https://astral.sh/uv/install.sh | sh
- Windows:
- Holen Sie sich den Code:
- Klonen Sie dieses Repository:
git clone https://github.com/noopstudios/interactive-feedback-mcp.git
- Oder laden Sie den Quellcode herunter.
- Klonen Sie dieses Repository:
- Navigieren Sie zum Verzeichnis:
cd path/to/interactive-feedback-mcp
- Installieren Sie Abhängigkeiten:
uv sync
(dies erstellt eine virtuelle Umgebung und installiert Pakete)
- Führen Sie den MCP-Server aus:
uv run server.py
- Im Cursor konfigurieren:
- Cursor ermöglicht in der Regel die Angabe benutzerdefinierter MCP-Server in seinen Einstellungen. Sie müssen Cursor auf diesen laufenden Server verweisen. Der genaue Mechanismus kann variieren. Informationen zum Hinzufügen benutzerdefinierter MCPs finden Sie in der Cursor-Dokumentation.
- Manuelle Konfiguration (z. B. über
mcp.json
) Denken Sie daran, den Pfad/Users/fabioferreira/Dev/scripts/interactive-feedback-mcp
in den tatsächlichen Pfad zu ändern, in den Sie das Repository auf Ihrem System geklont haben.Copy - Sie können bei der Konfiguration in Cursor eine Serverkennung wie
interactive-feedback-mcp
verwenden.
Für Cline / Windsurf
Es gelten ähnliche Einrichtungsprinzipien. Sie konfigurieren den Serverbefehl (z. B. uv run server.py
mit dem korrekten Argument --directory
, das auf das Projektverzeichnis verweist) in den MCP-Einstellungen des jeweiligen Tools und verwenden dabei interactive-feedback-mcp
als Serverkennung.
Entwicklung
So führen Sie den Server zum Testen im Entwicklungsmodus mit einer Weboberfläche aus:
Dadurch wird eine Weboberfläche geöffnet und Sie können zum Testen mit den MCP-Tools interagieren.
Verfügbare Werkzeuge
Hier ist ein Beispiel, wie der KI-Assistent das Tool interactive_feedback
aufrufen würde:
Danksagungen & Kontakt
Wenn Sie dieses interaktive Feedback-MCP nützlich finden, können Sie Ihre Wertschätzung am besten zeigen, indem Sie Fábio Ferreira auf X @fabiomlferreira folgen.
Wenn Sie Fragen oder Vorschläge haben oder uns einfach mitteilen möchten, wie Sie es verwenden, können Sie sich jederzeit unter X melden!
Weitere Ressourcen zur Verbesserung Ihres KI-gestützten Entwicklungsworkflows finden Sie auch auf dotcursorrules.com .
You must be authenticated.
local-only server
The server can only run on the client's local machine because it depends on local resources.
Tools
Ein MCP-Server, der einen Human-in-the-Loop-Workflow in KI-gestützten Entwicklungstools ermöglicht, indem er Benutzern erlaubt, Befehle auszuführen, ihre Ausgabe anzuzeigen und dem KI-Assistenten direkt Textfeedback zu geben.
- Prompt Engineering
- 💡 Warum dies verwenden?
- Konfiguration
- Installation (Cursor)
- Entwicklung
- Verfügbare Werkzeuge
- Danksagungen & Kontakt
Related Resources
Related MCP Servers
- -securityFlicense-qualityAn MCP server that allows AI assistants like Claude to execute terminal commands on the user's computer and return the output, functioning like a terminal through AI.Last updated -7Python
- AsecurityAlicenseAqualityA Model Context Protocol server that enables AI assistants to interact with Linear project management systems, allowing users to retrieve, create, and update issues, projects, and teams through natural language.Last updated -32805TypeScriptMIT License
- -securityAlicense-qualityAn MCP server that analyzes codebases and generates contextual prompts, making it easier for AI assistants to understand and work with code repositories.Last updated -2PythonMIT License
- AsecurityAlicenseAqualityAn MCP server that supercharges AI assistants with powerful tools for software development, enabling research, planning, code generation, and project scaffolding through natural language interaction.Last updated -116TypeScriptMIT License