Used for UI framework components in the frontend dashboard for server monitoring and visualization
Provides data visualization capabilities for displaying server performance metrics and monitoring data
Used for styling the server monitoring dashboard and user interface components
OpenManager Vibe V4
OpenManager Vibe V4 ist ein auf natürlicher Sprache basierendes Serveranalyse- und Überwachungssystem. Wenn ein Administrator in einfacher Sprache eine Frage zum Serverstatus stellt, analysiert das System diese automatisch und stellt die Ergebnisse bereit.
Vertriebslink
- Frontend : https://openvibe3.netlify.app
- Backend-API : https://openmanager-vibe-v4.onrender.com
Projektstruktur
MCP-Verknüpfungsfluss
Das Frontend und der MCP Lite-Server sind wie folgt integriert:
- Frontend : Der Benutzer gibt Fragen zum Serverstatus in natürlicher Sprache ein
- API-Aufruf : Das Frontend sendet eine Frage und Kontextinformationen an den
/query
-Endpunkt des MCP-Servers. - Backend-Verarbeitung : Der MCP-Server ordnet die Frage der Kontextdatei zu und generiert eine entsprechende Antwort.
- Ergebnisse anzeigen : Die Antwort wird an das Frontend übergeben und dem Benutzer visuell angezeigt.
In einer Demonstrationsumgebung :
- Der Großteil der Logik wird auf dem Front-End ausgeführt und es werden virtuelle Daten verwendet.
- Der MCP-Server erfüllt eine sekundäre Rolle und stellt nur einfache Funktionen zur Verarbeitung natürlicher Sprache bereit.
- In einer realen Umgebung kann der MCP-Server erweitert werden, um echte Überwachungsdaten mit erweitertem LLM zu verknüpfen.
Hauptmerkmale
- Abfragen auf Basis natürlicher Sprache : Ermöglicht Administratoren, Fragen zum Serverstatus und zu Problemen in alltäglicher Sprache zu stellen
- Automatische Analyse : Das System analysiert die Frage und stellt eine Liste der zugehörigen Server und der Problemursache bereit.
- Intuitives Dashboard : Zeigt den Serverstatus und die Leistungsmetriken visuell an
- Detaillierter Bericht : Erstellen Sie einen Analysebericht, der Ursache und Lösung des Problems enthält.
- Datenfilterung : Möglichkeit zum Filtern nach Zeit, Servertyp und Standort
Technologie-Stack
Frontend
- HTML5/CSS3/JavaScript (Vanilla)
- Bootstrap-UI-Framework
- Chart.js (Datenvisualisierung)
- Font Awesome/Bootstrap-Symbole (Symbole)
Backend
- Node.js
- Express.js
- Dateibasiertes Kontextmanagementsystem
🏗 Systemarchitektur: Groß angelegter KI-Agent vs. dieses Projekt (MCP-basiert)
🧠 Echte LLM-basierte KI-Agentenarchitektur
- Datenfluss: Echtzeit-Überwachungsprotokoll → Collector (Kafka/Fluentd usw.) → Analyse-Engine
- Verarbeitung natürlicher Sprache:
- Integration mit LLM-API (OpenAI, Claude usw.)
- Python/Java-basiertes Backend
- Enthält erweiterte Funktionen zur Abfrageinterpretation und zum Kontextverständnis
- Analyse-Engine:
- Integration mit Zeitreihen-/Suchmaschinen wie InfluxDB und Elasticsearch
- Ereignisbasierte Musteranalyse, Alarmauslösung
- UI-Integration:
- Vollständig integriertes Dashboard
- Konversationsschnittstelle + Lernen des Nutzungsverlaufs
⚙️ Dieses Projekt (leichtes MCP-basiertes Demosystem)
Dieses Projekt enthält mehrere Ebenen selbst entwickelter „KI-Agent“-Logik, um KI-ähnliche Funktionen ohne die Notwendigkeit eines LLM (Large Language Model) bereitzustellen. Jede Komponente erfüllt eine bestimmte Rolle und arbeitet zusammen, um Benutzern eine intelligente Serveranalyse- und Überwachungserfahrung zu bieten.
- Frontend: In reinem HTML/JS erstellt, auf Netlify bereitgestellt. Der Großteil der komplexen KI-Agentenlogik ist hier enthalten.
- MCP-Server (Backend): Basiert auf Node.js, zum Rendern bereitgestellt. Es ist hauptsächlich für einfache Frage-und-Antwort- und statistische Analysefunktionen verantwortlich.
Mehrschichtige „LLM-freie KI-Agent“-Komponenten
- Einfacher MCP-Server (
/query
Endpunkt inmcp-lite-server/server.js
):- Rolle: Bietet grundlegende Funktionen zur Abfrage- und Antwortbearbeitung mit Schlüsselwortübereinstimmung basierend auf dem Inhalt von Textdateien im
context/
Ordner. - Funktionsweise: Reagiert, indem geprüft wird, ob ein Wort in der Abfrage des Benutzers in einer bestimmten Zeile der Kontextdatei enthalten ist.
- Einschränkungen: Einfaches String-Matching kann zu einem schlechten Kontextverständnis führen und irrelevante Informationen zurückgeben.
- Rolle: Bietet grundlegende Funktionen zur Abfrage- und Antwortbearbeitung mit Schlüsselwortübereinstimmung basierend auf dem Inhalt von Textdateien im
- Backend-KI-Agent (
mcp-lite-server/ai_agent.js
und/api/ai/query
Endpunkt):- Rolle: Erkennen Sie Anomalien durch statistische Analysen (z. B. Z-Score) von Servermetrikdaten und generieren Sie einfache, musterbasierte Antworten in natürlicher Sprache für bestimmte Arten von Fragen.
- So funktioniert es: Analysiert numerische Daten, um statistische Ausreißer zu identifizieren und verwendet vordefinierte Antwortvorlagen.
- Einschränkungen: Reagiert nur auf begrenzte Szenarien und Fragetypen.
- Frontend-KI-Prozessor (
frontend/ai_processor.js
):- Rolle: Führen Sie die anspruchsvollste LLM-lose Agentenlogik im aktuellen System aus. Verantwortlich für die Definition detaillierter regelbasierter Problemmuster, die Analyse von Benutzerabfragen in natürlicher Sprache (einfache NLU), die Analyse von Ursachen und das Vorschlagen von Lösungen sowie die Generierung dynamischer Berichtsinhalte.
- Funktionsweise: Analysiert Serverdaten basierend auf in
problemPatterns
definierten Regeln und Bedingungen, identifiziert die Absicht der Benutzerfrage durchanalyzeQuery
und stellt benutzerdefinierte Informationen durch verschiedenegenerate...Response
Funktionen bereit. - Funktionen: Der Großteil der intelligenten Logik ist im Front-End-JavaScript-Code implementiert.
Vorteile und Einschränkungen dieses Ansatzes
- Verdienst:
- Arbeiten wie KI ohne LLM (niedrige Kosten/hohe Effizienz)
- Die Antwort kann durch einfaches Hinzufügen von Dokumenten erweitert werden (für einfache MCP-Server)
- Geringe Einführungs- und Wartungskosten (keine externe LLM-API-Abhängigkeit und -Kosten)
- Möglichkeit, für bestimmte Domänen optimierte Regeln festzulegen (Serverüberwachung)
- Marge:
- Eingeschränkte Fähigkeit zur Frageinterpretation (kein Kontextverständnis, begrenzte Tiefe des natürlichen Sprachverständnisses)
- Nicht geeignet für groß angelegte Echtzeitanalysen
- Die Leistung hängt von der Komplexität der Regeln und Muster ab und es ist schwierig, flexibel auf neue Problemtypen oder Fragen zu reagieren (insbesondere bei Front-End-KI-Prozessoren).
- Da die Kernlogik im Frontend konzentriert ist, kann es zu Einschränkungen hinsichtlich Skalierbarkeit und Wartbarkeit kommen.
🤖 Entwicklungsmethode (basierend auf Vibe Coding)
Dieses Projekt wurde entwickelt, indem Eingabeaufforderungen in ein GPT-basiertes Tool eingegeben und der Cursor zur Steuerung der KI-Codierung verwendet wurde.
Ablauf der Entwicklungsphase
Schritt 1: Erste Planung und Funktionsdefinition (mit GPT)
- Projektstrukturvorschlag
- Definieren der Rolle des MCP-Servers und der kontextbasierten Antwortmethode
- Festlegen des Technologie-Stacks und der grundlegenden UI-Ausrichtung
Schritt 2: Implementierung von Funktionen und Frontend-Integration (mit Cursor)
- Front-JS-Code-Konfiguration
- MCP-Anforderungsabrufverarbeitung
- Markdown-Antwort-Rendering
Schritt 3: Erweiterte und dokumentarische Musterantwort (Cursor + GPT-Zusammenarbeit)
- Kontext Erweiterung der Multi-Dokument-Antwortstruktur
- Entwerfen automatischer Berichtsvorlagen
- Entwurf und Verzweigungsverarbeitung von Antwortdokumenten nach Fehlerart
📐 Entwicklungsrichtlinien
✅ Benutzeroberfläche und Design
index.html
und UI-Stile sollten aktuell bleiben (Beibehaltung von 90 % oder mehr empfohlen)- Lassen Sie Änderungen nur insoweit zu, als dass sie den Benutzererlebnisfluss nicht unterbrechen.
✅ MCP-Backend
- Die Serverfunktionalität kann durch Erweitern und Hinzufügen von Kontextstrukturen beliebig verbessert werden.
- Die Kontextdokumentstruktur folgt der textbasierten
.txt
oder.md
- Bei der Erweiterung der API wird eine RESTful-Struktur empfohlen
Entwicklungsrichtlinien
Bitte beachten Sie bei der Arbeit an Ihrem Projekt die folgenden Richtlinien:
UI und Design (basierend auf Commit ad03d5f)
- Indexdatei und Benutzeroberfläche : Das aktuelle UI/UX-Design muss vollständig erhalten bleiben.
index.html
und extern sichtbare Benutzeroberflächenkomponenten sollten mindestens 90 % ihres aktuellen Stils beibehalten.- Ändern Sie das Front-End-Design nur, wenn es unbedingt erforderlich ist.
Backend-Entwicklung
- Verbesserungen der Backend-Funktionen : Serverseitige Funktionsverbesserungen und -erweiterungen können fortgesetzt werden.
- Verbesserte Datenverarbeitungslogik
- API-Endpunkte hinzufügen und optimieren
- Arbeiten Sie an der Verbesserung der Leistung und der Skalierbarkeit
Installieren und ausführen
Frontend
Backend-Server
Bereitstellungsumgebung
- Frontend : Netlify ( https://openvibe3.netlify.app )
- Backend : Render.com ( https://openmanager-vibe-v4.onrender.com )
Zukünftige Entwicklungspläne
- KI-Integration : Echte LLM-Verknüpfung zur Verarbeitung natürlicher Sprache
- Echtzeitdaten : Integration mit echten Serverüberwachungssystemen (Prometheus, Zabbix usw.)
- Erweiterte Visualisierung : Diversifizierung von Grafiken und Diagrammen zur Datenanalyse
- Benachrichtigungssystem : Automatische Benachrichtigung und Berichtsübermittlung im Fehlerfall
Entwicklerinformationen
Dieses Projekt wurde mit Vibe Coding basierend auf verschiedenen KI-Modellen wie Claude, GPT und Gemini entwickelt.
Lizenz
Dieses Projekt wurde für interne Entwicklungszwecke erstellt und es ist keine separate Lizenz dafür angegeben.
Jüngste Verbesserungen (Release v4.1.0)
1. Verbesserung und Konsistenz der leichten NLU-Struktur
- Wir haben sowohl im Frontend als auch im Backend leichte NLU-Architekturen (Natural Language Understanding) implementiert.
- Trennen Sie Benutzeranfragen konsequent in Absichten und Entitäten.
- Absichten: CPU_STATUS, MEMORY_STATUS, DISK_STATUS, INCIDENT_QUERY, SERVER_STATUS usw.
- Entitäten: Servertyp, Schwellenwert, Zeitbereich, Schweregrad usw.
2. Verbesserte Front-End-Back-End-Abfrageverarbeitungslogik
- Mit dem Backend kompatible NLU-Analysefunktion zum Frontend
process_query.js
hinzugefügt. - Verbessern Sie die Antwortstruktur der Backend-API, um dem Frontend explizit Absichts- und Entitätsinformationen bereitzustellen.
- Wir haben die Fehlerbehandlung verbessert, um eine konsistente Fehlerbehandlung über alle API-Endpunkte hinweg sicherzustellen.
3. Verbesserte Kontextbehandlung
- Nutzen Sie den Gesprächskontext, um präzisere und kontextbezogenere Antworten auf Folgefragen zu geben.
- Beispiel: Nachdem Sie eine Frage zu einem bestimmten Server gestellt haben, bewahren Sie den Kontext, indem Sie eine Folgefrage stellen, etwa „Erklären Sie, warum?“
- Denken Sie an die in früheren Gesprächen erwähnten Metriktypen (CPU, Speicher usw.) und verwenden Sie sie bei Folgefragen.
4. Verbesserte Entwicklererfahrung
- Die Frontend-Entwicklung wird durch die Aufrechterhaltung einer konsistenten API-Antwortstruktur einfacher.
- Zur Verbesserung der Stabilität wurde allen APIs eine Fehlerbehandlungslogik hinzugefügt.
- Verbesserte Wartbarkeit durch Verbesserung der Backend-Codestruktur.
Zukünftige Verbesserungspläne
- Strukturieren der Kontextdatei – Konvertieren Sie den aktuellen textdateibasierten Kontext in das JSON/YAML-Format.
- Erweiterte NLU-Funktionen – Erkennung weiterer Absichten und Entitäten hinzugefügt
- Verbesserungen der Front-End-Benutzeroberfläche – Kontextabhängige Funktionen visuell darstellen
- Backend-Leistungsoptimierung – Verbessern Sie die Leistung bei der Verarbeitung umfangreicher Messdaten
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Ein auf natürlicher Sprache basierendes Serveranalyse- und Überwachungssystem, das Benutzeranfragen zum Serverstatus automatisch verarbeitet und detaillierte Antworten mit Visualisierungen bereitstellt.
- Vertriebslink
- Projektstruktur
- MCP-Verknüpfungsfluss
- Hauptmerkmale
- Technologie-Stack
- 🏗 Systemarchitektur: Groß angelegter KI-Agent vs. dieses Projekt (MCP-basiert)
- 🤖 Entwicklungsmethode (basierend auf Vibe Coding)
- 📐 Entwicklungsrichtlinien
- Entwicklungsrichtlinien
- Installieren und ausführen
- Bereitstellungsumgebung
- Zukünftige Entwicklungspläne
- Entwicklerinformationen
- Lizenz
- Jüngste Verbesserungen (Release v4.1.0)
- Zukünftige Verbesserungspläne
Related MCP Servers
- -securityFlicense-qualityA server that implements a checklist management system with features like task creation, progress tracking, data persistence, and item comments.Last updated -53TypeScript
- AsecurityFlicenseAqualityThe server facilitates natural language interactions for exploring and understanding codebases, providing insights into data models and system architecture using a cost-effective, simple setup with support for existing Claude Pro subscriptions.Last updated -47Python
- -securityFlicense-qualityA server that enables interaction with PostgreSQL, MySQL, MariaDB, or SQLite databases through Claude Desktop using natural language queries.Last updated -Python
- -securityAlicense-qualityA lightweight server that provides real-time system information including CPU, memory, disk, and GPU statistics for monitoring and diagnostic purposes.Last updated -PythonMIT License