OpenManager Vibe V4
OpenManager Vibe V4 ist ein auf natürlicher Sprache basierendes Serveranalyse- und Überwachungssystem. Wenn ein Administrator in einfacher Sprache eine Frage zum Serverstatus stellt, analysiert das System diese automatisch und stellt die Ergebnisse bereit.
Vertriebslink
Frontend : https://openvibe3.netlify.app
Backend-API : https://openmanager-vibe-v4.onrender.com
Projektstruktur
MCP-Verknüpfungsfluss
Das Frontend und der MCP Lite-Server sind wie folgt integriert:
Frontend : Der Benutzer gibt Fragen zum Serverstatus in natürlicher Sprache ein
API-Aufruf : Das Frontend sendet eine Frage und Kontextinformationen an den
/query-Endpunkt des MCP-Servers.Backend-Verarbeitung : Der MCP-Server ordnet die Frage der Kontextdatei zu und generiert eine entsprechende Antwort.
Ergebnisse anzeigen : Die Antwort wird an das Frontend übergeben und dem Benutzer visuell angezeigt.
In einer Demonstrationsumgebung :
Der Großteil der Logik wird auf dem Front-End ausgeführt und es werden virtuelle Daten verwendet.
Der MCP-Server erfüllt eine sekundäre Rolle und stellt nur einfache Funktionen zur Verarbeitung natürlicher Sprache bereit.
In einer realen Umgebung kann der MCP-Server erweitert werden, um echte Überwachungsdaten mit erweitertem LLM zu verknüpfen.
Hauptmerkmale
Abfragen auf Basis natürlicher Sprache : Ermöglicht Administratoren, Fragen zum Serverstatus und zu Problemen in alltäglicher Sprache zu stellen
Automatische Analyse : Das System analysiert die Frage und stellt eine Liste der zugehörigen Server und der Problemursache bereit.
Intuitives Dashboard : Zeigt den Serverstatus und die Leistungsmetriken visuell an
Detaillierter Bericht : Erstellen Sie einen Analysebericht, der Ursache und Lösung des Problems enthält.
Datenfilterung : Möglichkeit zum Filtern nach Zeit, Servertyp und Standort
Technologie-Stack
Frontend
HTML5/CSS3/JavaScript (Vanilla)
Bootstrap-UI-Framework
Chart.js (Datenvisualisierung)
Font Awesome/Bootstrap-Symbole (Symbole)
Backend
Node.js
Express.js
Dateibasiertes Kontextmanagementsystem
🏗 Systemarchitektur: Groß angelegter KI-Agent vs. dieses Projekt (MCP-basiert)
🧠 Echte LLM-basierte KI-Agentenarchitektur
Datenfluss: Echtzeit-Überwachungsprotokoll → Collector (Kafka/Fluentd usw.) → Analyse-Engine
Verarbeitung natürlicher Sprache:
Integration mit LLM-API (OpenAI, Claude usw.)
Python/Java-basiertes Backend
Enthält erweiterte Funktionen zur Abfrageinterpretation und zum Kontextverständnis
Analyse-Engine:
Integration mit Zeitreihen-/Suchmaschinen wie InfluxDB und Elasticsearch
Ereignisbasierte Musteranalyse, Alarmauslösung
UI-Integration:
Vollständig integriertes Dashboard
Konversationsschnittstelle + Lernen des Nutzungsverlaufs
⚙️ Dieses Projekt (leichtes MCP-basiertes Demosystem)
Dieses Projekt enthält mehrere Ebenen selbst entwickelter „KI-Agent“-Logik, um KI-ähnliche Funktionen ohne die Notwendigkeit eines LLM (Large Language Model) bereitzustellen. Jede Komponente erfüllt eine bestimmte Rolle und arbeitet zusammen, um Benutzern eine intelligente Serveranalyse- und Überwachungserfahrung zu bieten.
Frontend: In reinem HTML/JS erstellt, auf Netlify bereitgestellt. Der Großteil der komplexen KI-Agentenlogik ist hier enthalten.
MCP-Server (Backend): Basiert auf Node.js, zum Rendern bereitgestellt. Es ist hauptsächlich für einfache Frage-und-Antwort- und statistische Analysefunktionen verantwortlich.
Mehrschichtige „LLM-freie KI-Agent“-Komponenten
Einfacher MCP-Server (
Rolle: Bietet grundlegende Funktionen zur Abfrage- und Antwortbearbeitung mit Schlüsselwortübereinstimmung basierend auf dem Inhalt von Textdateien im
context/Ordner.Funktionsweise: Reagiert, indem geprüft wird, ob ein Wort in der Abfrage des Benutzers in einer bestimmten Zeile der Kontextdatei enthalten ist.
Einschränkungen: Einfaches String-Matching kann zu einem schlechten Kontextverständnis führen und irrelevante Informationen zurückgeben.
Backend-KI-Agent (
Rolle: Erkennen Sie Anomalien durch statistische Analysen (z. B. Z-Score) von Servermetrikdaten und generieren Sie einfache, musterbasierte Antworten in natürlicher Sprache für bestimmte Arten von Fragen.
So funktioniert es: Analysiert numerische Daten, um statistische Ausreißer zu identifizieren und verwendet vordefinierte Antwortvorlagen.
Einschränkungen: Reagiert nur auf begrenzte Szenarien und Fragetypen.
Frontend-KI-Prozessor (
Rolle: Führen Sie die anspruchsvollste LLM-lose Agentenlogik im aktuellen System aus. Verantwortlich für die Definition detaillierter regelbasierter Problemmuster, die Analyse von Benutzerabfragen in natürlicher Sprache (einfache NLU), die Analyse von Ursachen und das Vorschlagen von Lösungen sowie die Generierung dynamischer Berichtsinhalte.
Funktionsweise: Analysiert Serverdaten basierend auf in
problemPatternsdefinierten Regeln und Bedingungen, identifiziert die Absicht der Benutzerfrage durchanalyzeQueryund stellt benutzerdefinierte Informationen durch verschiedenegenerate...ResponseFunktionen bereit.Funktionen: Der Großteil der intelligenten Logik ist im Front-End-JavaScript-Code implementiert.
Vorteile und Einschränkungen dieses Ansatzes
Verdienst:
Arbeiten wie KI ohne LLM (niedrige Kosten/hohe Effizienz)
Die Antwort kann durch einfaches Hinzufügen von Dokumenten erweitert werden (für einfache MCP-Server)
Geringe Einführungs- und Wartungskosten (keine externe LLM-API-Abhängigkeit und -Kosten)
Möglichkeit, für bestimmte Domänen optimierte Regeln festzulegen (Serverüberwachung)
Marge:
Eingeschränkte Fähigkeit zur Frageinterpretation (kein Kontextverständnis, begrenzte Tiefe des natürlichen Sprachverständnisses)
Nicht geeignet für groß angelegte Echtzeitanalysen
Die Leistung hängt von der Komplexität der Regeln und Muster ab und es ist schwierig, flexibel auf neue Problemtypen oder Fragen zu reagieren (insbesondere bei Front-End-KI-Prozessoren).
Da die Kernlogik im Frontend konzentriert ist, kann es zu Einschränkungen hinsichtlich Skalierbarkeit und Wartbarkeit kommen.
🤖 Entwicklungsmethode (basierend auf Vibe Coding)
Dieses Projekt wurde entwickelt, indem Eingabeaufforderungen in ein GPT-basiertes Tool eingegeben und der Cursor zur Steuerung der KI-Codierung verwendet wurde.
Ablauf der Entwicklungsphase
Schritt 1: Erste Planung und Funktionsdefinition (mit GPT)
Projektstrukturvorschlag
Definieren der Rolle des MCP-Servers und der kontextbasierten Antwortmethode
Festlegen des Technologie-Stacks und der grundlegenden UI-Ausrichtung
Schritt 2: Implementierung von Funktionen und Frontend-Integration (mit Cursor)
Front-JS-Code-Konfiguration
MCP-Anforderungsabrufverarbeitung
Markdown-Antwort-Rendering
Schritt 3: Erweiterte und dokumentarische Musterantwort (Cursor + GPT-Zusammenarbeit)
Kontext Erweiterung der Multi-Dokument-Antwortstruktur
Entwerfen automatischer Berichtsvorlagen
Entwurf und Verzweigungsverarbeitung von Antwortdokumenten nach Fehlerart
📐 Entwicklungsrichtlinien
✅ Benutzeroberfläche und Design
index.htmlund UI-Stile sollten aktuell bleiben (Beibehaltung von 90 % oder mehr empfohlen)Lassen Sie Änderungen nur insoweit zu, als dass sie den Benutzererlebnisfluss nicht unterbrechen.
✅ MCP-Backend
Die Serverfunktionalität kann durch Erweitern und Hinzufügen von Kontextstrukturen beliebig verbessert werden.
Die Kontextdokumentstruktur folgt der textbasierten
.txtoder.mdBei der Erweiterung der API wird eine RESTful-Struktur empfohlen
Entwicklungsrichtlinien
Bitte beachten Sie bei der Arbeit an Ihrem Projekt die folgenden Richtlinien:
UI und Design (basierend auf Commit ad03d5f)
Indexdatei und Benutzeroberfläche : Das aktuelle UI/UX-Design muss vollständig erhalten bleiben.
index.htmlund extern sichtbare Benutzeroberflächenkomponenten sollten mindestens 90 % ihres aktuellen Stils beibehalten.Ändern Sie das Front-End-Design nur, wenn es unbedingt erforderlich ist.
Backend-Entwicklung
Verbesserungen der Backend-Funktionen : Serverseitige Funktionsverbesserungen und -erweiterungen können fortgesetzt werden.
Verbesserte Datenverarbeitungslogik
API-Endpunkte hinzufügen und optimieren
Arbeiten Sie an der Verbesserung der Leistung und der Skalierbarkeit
Installieren und ausführen
Frontend
Backend-Server
Bereitstellungsumgebung
Frontend : Netlify ( https://openvibe3.netlify.app )
Backend : Render.com ( https://openmanager-vibe-v4.onrender.com )
Zukünftige Entwicklungspläne
KI-Integration : Echte LLM-Verknüpfung zur Verarbeitung natürlicher Sprache
Echtzeitdaten : Integration mit echten Serverüberwachungssystemen (Prometheus, Zabbix usw.)
Erweiterte Visualisierung : Diversifizierung von Grafiken und Diagrammen zur Datenanalyse
Benachrichtigungssystem : Automatische Benachrichtigung und Berichtsübermittlung im Fehlerfall
Entwicklerinformationen
Dieses Projekt wurde mit Vibe Coding basierend auf verschiedenen KI-Modellen wie Claude, GPT und Gemini entwickelt.
Lizenz
Dieses Projekt wurde für interne Entwicklungszwecke erstellt und es ist keine separate Lizenz dafür angegeben.
Jüngste Verbesserungen (Release v4.1.0)
1. Verbesserung und Konsistenz der leichten NLU-Struktur
Wir haben sowohl im Frontend als auch im Backend leichte NLU-Architekturen (Natural Language Understanding) implementiert.
Trennen Sie Benutzeranfragen konsequent in Absichten und Entitäten.
Absichten: CPU_STATUS, MEMORY_STATUS, DISK_STATUS, INCIDENT_QUERY, SERVER_STATUS usw.
Entitäten: Servertyp, Schwellenwert, Zeitbereich, Schweregrad usw.
2. Verbesserte Front-End-Back-End-Abfrageverarbeitungslogik
Mit dem Backend kompatible NLU-Analysefunktion zum Frontend
process_query.jshinzugefügt.Verbessern Sie die Antwortstruktur der Backend-API, um dem Frontend explizit Absichts- und Entitätsinformationen bereitzustellen.
Wir haben die Fehlerbehandlung verbessert, um eine konsistente Fehlerbehandlung über alle API-Endpunkte hinweg sicherzustellen.
3. Verbesserte Kontextbehandlung
Nutzen Sie den Gesprächskontext, um präzisere und kontextbezogenere Antworten auf Folgefragen zu geben.
Beispiel: Nachdem Sie eine Frage zu einem bestimmten Server gestellt haben, bewahren Sie den Kontext, indem Sie eine Folgefrage stellen, etwa „Erklären Sie, warum?“
Denken Sie an die in früheren Gesprächen erwähnten Metriktypen (CPU, Speicher usw.) und verwenden Sie sie bei Folgefragen.
4. Verbesserte Entwicklererfahrung
Die Frontend-Entwicklung wird durch die Aufrechterhaltung einer konsistenten API-Antwortstruktur einfacher.
Zur Verbesserung der Stabilität wurde allen APIs eine Fehlerbehandlungslogik hinzugefügt.
Verbesserte Wartbarkeit durch Verbesserung der Backend-Codestruktur.
Zukünftige Verbesserungspläne
Strukturieren der Kontextdatei – Konvertieren Sie den aktuellen textdateibasierten Kontext in das JSON/YAML-Format.
Erweiterte NLU-Funktionen – Erkennung weiterer Absichten und Entitäten hinzugefügt
Verbesserungen der Front-End-Benutzeroberfläche – Kontextabhängige Funktionen visuell darstellen
Backend-Leistungsoptimierung – Verbessern Sie die Leistung bei der Verarbeitung umfangreicher Messdaten
This server cannot be installed
Related Resources
Related MCP Servers
- AsecurityAlicenseAqualityA JVM monitoring and control platform server based on Arthas that provides a Python interface for monitoring and analyzing Java processes with capabilities for thread analysis, memory monitoring, and performance diagnostics.Last updated -1572MIT License
- AsecurityAlicenseAqualityA lightweight server that provides real-time system information including CPU, memory, disk, and GPU statistics for monitoring and diagnostic purposes.Last updated -1MIT License
- AsecurityAlicenseAqualityA server monitoring and inspection tool collection that provides remote utilities for checking network interfaces, service statuses, and firewall configurations on servers.Last updated -1943MIT License
- AsecurityAlicenseAqualityA file monitoring server that tracks filesystem events and provides real-time notifications to AI assistants, enabling them to automatically respond to file changes without manual updates.Last updated -419MIT License