Skip to main content
Glama

OpenManager Vibe V4 MCP Server

by skyasu2
Integrations
  • Used for UI framework components in the frontend dashboard for server monitoring and visualization

  • Provides data visualization capabilities for displaying server performance metrics and monitoring data

  • Used for styling the server monitoring dashboard and user interface components

OpenManager Vibe V4

OpenManager Vibe V4 ist ein auf natürlicher Sprache basierendes Serveranalyse- und Überwachungssystem. Wenn ein Administrator in einfacher Sprache eine Frage zum Serverstatus stellt, analysiert das System diese automatisch und stellt die Ergebnisse bereit.

Projektstruktur

. ├── frontend/ # 프론트엔드 코드 │ ├── css/ # 스타일시트 파일들 │ ├── public/ # 정적 자원 파일들 │ ├── index.html # 메인 랜딩 페이지 │ ├── server_dashboard.html # 서버 모니터링 대시보드 │ ├── server_detail.html # 서버 상세 정보 페이지 │ ├── agent.js # 에이전트 스크립트 │ ├── ai_processor.js # 자연어 처리 엔진 │ ├── data_processor.js # 데이터 처리 로직 │ ├── dummy_data_generator.js # 더미 데이터 생성기 │ ├── fixed_dummy_data.js # 고정 더미 데이터 │ ├── summary.js # 데이터 요약 및 보고서 생성 │ └── config.js # 설정 파일 │ └── mcp-lite-server/ # 백엔드 서버 ├── context/ # 컨텍스트 문서 보관 ├── server.js # 백엔드 서버 코드 └── package.json # 백엔드 의존성 정의

MCP-Verknüpfungsfluss

Das Frontend und der MCP Lite-Server sind wie folgt integriert:

  1. Frontend : Der Benutzer gibt Fragen zum Serverstatus in natürlicher Sprache ein
  2. API-Aufruf : Das Frontend sendet eine Frage und Kontextinformationen an den /query -Endpunkt des MCP-Servers.
  3. Backend-Verarbeitung : Der MCP-Server ordnet die Frage der Kontextdatei zu und generiert eine entsprechende Antwort.
  4. Ergebnisse anzeigen : Die Antwort wird an das Frontend übergeben und dem Benutzer visuell angezeigt.

In einer Demonstrationsumgebung :

  • Der Großteil der Logik wird auf dem Front-End ausgeführt und es werden virtuelle Daten verwendet.
  • Der MCP-Server erfüllt eine sekundäre Rolle und stellt nur einfache Funktionen zur Verarbeitung natürlicher Sprache bereit.
  • In einer realen Umgebung kann der MCP-Server erweitert werden, um echte Überwachungsdaten mit erweitertem LLM zu verknüpfen.

Hauptmerkmale

  • Abfragen auf Basis natürlicher Sprache : Ermöglicht Administratoren, Fragen zum Serverstatus und zu Problemen in alltäglicher Sprache zu stellen
  • Automatische Analyse : Das System analysiert die Frage und stellt eine Liste der zugehörigen Server und der Problemursache bereit.
  • Intuitives Dashboard : Zeigt den Serverstatus und die Leistungsmetriken visuell an
  • Detaillierter Bericht : Erstellen Sie einen Analysebericht, der Ursache und Lösung des Problems enthält.
  • Datenfilterung : Möglichkeit zum Filtern nach Zeit, Servertyp und Standort

Technologie-Stack

Frontend

  • HTML5/CSS3/JavaScript (Vanilla)
  • Bootstrap-UI-Framework
  • Chart.js (Datenvisualisierung)
  • Font Awesome/Bootstrap-Symbole (Symbole)

Backend

  • Node.js
  • Express.js
  • Dateibasiertes Kontextmanagementsystem

🏗 Systemarchitektur: Groß angelegter KI-Agent vs. dieses Projekt (MCP-basiert)

🧠 Echte LLM-basierte KI-Agentenarchitektur

  • Datenfluss: Echtzeit-Überwachungsprotokoll → Collector (Kafka/Fluentd usw.) → Analyse-Engine
  • Verarbeitung natürlicher Sprache:
    • Integration mit LLM-API (OpenAI, Claude usw.)
    • Python/Java-basiertes Backend
    • Enthält erweiterte Funktionen zur Abfrageinterpretation und zum Kontextverständnis
  • Analyse-Engine:
    • Integration mit Zeitreihen-/Suchmaschinen wie InfluxDB und Elasticsearch
    • Ereignisbasierte Musteranalyse, Alarmauslösung
  • UI-Integration:
    • Vollständig integriertes Dashboard
    • Konversationsschnittstelle + Lernen des Nutzungsverlaufs

⚙️ Dieses Projekt (leichtes MCP-basiertes Demosystem)

Dieses Projekt enthält mehrere Ebenen selbst entwickelter „KI-Agent“-Logik, um KI-ähnliche Funktionen ohne die Notwendigkeit eines LLM (Large Language Model) bereitzustellen. Jede Komponente erfüllt eine bestimmte Rolle und arbeitet zusammen, um Benutzern eine intelligente Serveranalyse- und Überwachungserfahrung zu bieten.

  • Frontend: In reinem HTML/JS erstellt, auf Netlify bereitgestellt. Der Großteil der komplexen KI-Agentenlogik ist hier enthalten.
  • MCP-Server (Backend): Basiert auf Node.js, zum Rendern bereitgestellt. Es ist hauptsächlich für einfache Frage-und-Antwort- und statistische Analysefunktionen verantwortlich.
Mehrschichtige „LLM-freie KI-Agent“-Komponenten
  1. Einfacher MCP-Server ( /query Endpunkt in mcp-lite-server/server.js ):
    • Rolle: Bietet grundlegende Funktionen zur Abfrage- und Antwortbearbeitung mit Schlüsselwortübereinstimmung basierend auf dem Inhalt von Textdateien im context/ Ordner.
    • Funktionsweise: Reagiert, indem geprüft wird, ob ein Wort in der Abfrage des Benutzers in einer bestimmten Zeile der Kontextdatei enthalten ist.
    • Einschränkungen: Einfaches String-Matching kann zu einem schlechten Kontextverständnis führen und irrelevante Informationen zurückgeben.
  2. Backend-KI-Agent ( mcp-lite-server/ai_agent.js und /api/ai/query Endpunkt):
    • Rolle: Erkennen Sie Anomalien durch statistische Analysen (z. B. Z-Score) von Servermetrikdaten und generieren Sie einfache, musterbasierte Antworten in natürlicher Sprache für bestimmte Arten von Fragen.
    • So funktioniert es: Analysiert numerische Daten, um statistische Ausreißer zu identifizieren und verwendet vordefinierte Antwortvorlagen.
    • Einschränkungen: Reagiert nur auf begrenzte Szenarien und Fragetypen.
  3. Frontend-KI-Prozessor ( frontend/ai_processor.js ):
    • Rolle: Führen Sie die anspruchsvollste LLM-lose Agentenlogik im aktuellen System aus. Verantwortlich für die Definition detaillierter regelbasierter Problemmuster, die Analyse von Benutzerabfragen in natürlicher Sprache (einfache NLU), die Analyse von Ursachen und das Vorschlagen von Lösungen sowie die Generierung dynamischer Berichtsinhalte.
    • Funktionsweise: Analysiert Serverdaten basierend auf in problemPatterns definierten Regeln und Bedingungen, identifiziert die Absicht der Benutzerfrage durch analyzeQuery und stellt benutzerdefinierte Informationen durch verschiedene generate...Response Funktionen bereit.
    • Funktionen: Der Großteil der intelligenten Logik ist im Front-End-JavaScript-Code implementiert.
Vorteile und Einschränkungen dieses Ansatzes
  • Verdienst:
    • Arbeiten wie KI ohne LLM (niedrige Kosten/hohe Effizienz)
    • Die Antwort kann durch einfaches Hinzufügen von Dokumenten erweitert werden (für einfache MCP-Server)
    • Geringe Einführungs- und Wartungskosten (keine externe LLM-API-Abhängigkeit und -Kosten)
    • Möglichkeit, für bestimmte Domänen optimierte Regeln festzulegen (Serverüberwachung)
  • Marge:
    • Eingeschränkte Fähigkeit zur Frageinterpretation (kein Kontextverständnis, begrenzte Tiefe des natürlichen Sprachverständnisses)
    • Nicht geeignet für groß angelegte Echtzeitanalysen
    • Die Leistung hängt von der Komplexität der Regeln und Muster ab und es ist schwierig, flexibel auf neue Problemtypen oder Fragen zu reagieren (insbesondere bei Front-End-KI-Prozessoren).
    • Da die Kernlogik im Frontend konzentriert ist, kann es zu Einschränkungen hinsichtlich Skalierbarkeit und Wartbarkeit kommen.

🤖 Entwicklungsmethode (basierend auf Vibe Coding)

Dieses Projekt wurde entwickelt, indem Eingabeaufforderungen in ein GPT-basiertes Tool eingegeben und der Cursor zur Steuerung der KI-Codierung verwendet wurde.

Ablauf der Entwicklungsphase

Schritt 1: Erste Planung und Funktionsdefinition (mit GPT)
  • Projektstrukturvorschlag
  • Definieren der Rolle des MCP-Servers und der kontextbasierten Antwortmethode
  • Festlegen des Technologie-Stacks und der grundlegenden UI-Ausrichtung
Schritt 2: Implementierung von Funktionen und Frontend-Integration (mit Cursor)
  • Front-JS-Code-Konfiguration
  • MCP-Anforderungsabrufverarbeitung
  • Markdown-Antwort-Rendering
Schritt 3: Erweiterte und dokumentarische Musterantwort (Cursor + GPT-Zusammenarbeit)
  • Kontext Erweiterung der Multi-Dokument-Antwortstruktur
  • Entwerfen automatischer Berichtsvorlagen
  • Entwurf und Verzweigungsverarbeitung von Antwortdokumenten nach Fehlerart

📐 Entwicklungsrichtlinien

✅ Benutzeroberfläche und Design

  • index.html und UI-Stile sollten aktuell bleiben (Beibehaltung von 90 % oder mehr empfohlen)
  • Lassen Sie Änderungen nur insoweit zu, als dass sie den Benutzererlebnisfluss nicht unterbrechen.

✅ MCP-Backend

  • Die Serverfunktionalität kann durch Erweitern und Hinzufügen von Kontextstrukturen beliebig verbessert werden.
  • Die Kontextdokumentstruktur folgt der textbasierten .txt oder .md
  • Bei der Erweiterung der API wird eine RESTful-Struktur empfohlen

Entwicklungsrichtlinien

Bitte beachten Sie bei der Arbeit an Ihrem Projekt die folgenden Richtlinien:

UI und Design (basierend auf Commit ad03d5f)

  • Indexdatei und Benutzeroberfläche : Das aktuelle UI/UX-Design muss vollständig erhalten bleiben.
    • index.html und extern sichtbare Benutzeroberflächenkomponenten sollten mindestens 90 % ihres aktuellen Stils beibehalten.
    • Ändern Sie das Front-End-Design nur, wenn es unbedingt erforderlich ist.

Backend-Entwicklung

  • Verbesserungen der Backend-Funktionen : Serverseitige Funktionsverbesserungen und -erweiterungen können fortgesetzt werden.
    • Verbesserte Datenverarbeitungslogik
    • API-Endpunkte hinzufügen und optimieren
    • Arbeiten Sie an der Verbesserung der Leistung und der Skalierbarkeit

Installieren und ausführen

Frontend

cd frontend # 정적 서버로 실행 (예: VS Code의 Live Server 또는 기타 정적 파일 서버)

Backend-Server

cd mcp-lite-server npm install node server.js

Bereitstellungsumgebung

Zukünftige Entwicklungspläne

  1. KI-Integration : Echte LLM-Verknüpfung zur Verarbeitung natürlicher Sprache
  2. Echtzeitdaten : Integration mit echten Serverüberwachungssystemen (Prometheus, Zabbix usw.)
  3. Erweiterte Visualisierung : Diversifizierung von Grafiken und Diagrammen zur Datenanalyse
  4. Benachrichtigungssystem : Automatische Benachrichtigung und Berichtsübermittlung im Fehlerfall

Entwicklerinformationen

Dieses Projekt wurde mit Vibe Coding basierend auf verschiedenen KI-Modellen wie Claude, GPT und Gemini entwickelt.

Lizenz

Dieses Projekt wurde für interne Entwicklungszwecke erstellt und es ist keine separate Lizenz dafür angegeben.

Jüngste Verbesserungen (Release v4.1.0)

1. Verbesserung und Konsistenz der leichten NLU-Struktur

  • Wir haben sowohl im Frontend als auch im Backend leichte NLU-Architekturen (Natural Language Understanding) implementiert.
  • Trennen Sie Benutzeranfragen konsequent in Absichten und Entitäten.
  • Absichten: CPU_STATUS, MEMORY_STATUS, DISK_STATUS, INCIDENT_QUERY, SERVER_STATUS usw.
  • Entitäten: Servertyp, Schwellenwert, Zeitbereich, Schweregrad usw.

2. Verbesserte Front-End-Back-End-Abfrageverarbeitungslogik

  • Mit dem Backend kompatible NLU-Analysefunktion zum Frontend process_query.js hinzugefügt.
  • Verbessern Sie die Antwortstruktur der Backend-API, um dem Frontend explizit Absichts- und Entitätsinformationen bereitzustellen.
  • Wir haben die Fehlerbehandlung verbessert, um eine konsistente Fehlerbehandlung über alle API-Endpunkte hinweg sicherzustellen.

3. Verbesserte Kontextbehandlung

  • Nutzen Sie den Gesprächskontext, um präzisere und kontextbezogenere Antworten auf Folgefragen zu geben.
  • Beispiel: Nachdem Sie eine Frage zu einem bestimmten Server gestellt haben, bewahren Sie den Kontext, indem Sie eine Folgefrage stellen, etwa „Erklären Sie, warum?“
  • Denken Sie an die in früheren Gesprächen erwähnten Metriktypen (CPU, Speicher usw.) und verwenden Sie sie bei Folgefragen.

4. Verbesserte Entwicklererfahrung

  • Die Frontend-Entwicklung wird durch die Aufrechterhaltung einer konsistenten API-Antwortstruktur einfacher.
  • Zur Verbesserung der Stabilität wurde allen APIs eine Fehlerbehandlungslogik hinzugefügt.
  • Verbesserte Wartbarkeit durch Verbesserung der Backend-Codestruktur.

Zukünftige Verbesserungspläne

  1. Strukturieren der Kontextdatei – Konvertieren Sie den aktuellen textdateibasierten Kontext in das JSON/YAML-Format.
  2. Erweiterte NLU-Funktionen – Erkennung weiterer Absichten und Entitäten hinzugefügt
  3. Verbesserungen der Front-End-Benutzeroberfläche – Kontextabhängige Funktionen visuell darstellen
  4. Backend-Leistungsoptimierung – Verbessern Sie die Leistung bei der Verarbeitung umfangreicher Messdaten

Related MCP Servers

  • -
    security
    F
    license
    -
    quality
    A server that implements a checklist management system with features like task creation, progress tracking, data persistence, and item comments.
    Last updated -
    5
    3
    TypeScript
  • A
    security
    F
    license
    A
    quality
    The server facilitates natural language interactions for exploring and understanding codebases, providing insights into data models and system architecture using a cost-effective, simple setup with support for existing Claude Pro subscriptions.
    Last updated -
    4
    7
    Python
    • Apple
  • -
    security
    F
    license
    -
    quality
    A server that enables interaction with PostgreSQL, MySQL, MariaDB, or SQLite databases through Claude Desktop using natural language queries.
    Last updated -
    Python
  • -
    security
    A
    license
    -
    quality
    A lightweight server that provides real-time system information including CPU, memory, disk, and GPU statistics for monitoring and diagnostic purposes.
    Last updated -
    Python
    MIT License

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/skyasu2/openmanager-vibe-v4'

If you have feedback or need assistance with the MCP directory API, please join our Discord server