Skip to main content
Glama

OpenManager Vibe V4 MCP Server

by skyasu2
Integrations
  • Used for UI framework components in the frontend dashboard for server monitoring and visualization

  • Provides data visualization capabilities for displaying server performance metrics and monitoring data

  • Used for styling the server monitoring dashboard and user interface components

OpenManager Vibe V4

OpenManager Vibe V4 es un sistema de monitorización y análisis de servidores basado en lenguaje natural. Cuando un administrador hace una pregunta sobre el estado del servidor en un lenguaje sencillo, el sistema la analiza automáticamente y proporciona los resultados.

Enlace de distribución

Estructura del proyecto

. ├── frontend/ # 프론트엔드 코드 │ ├── css/ # 스타일시트 파일들 │ ├── public/ # 정적 자원 파일들 │ ├── index.html # 메인 랜딩 페이지 │ ├── server_dashboard.html # 서버 모니터링 대시보드 │ ├── server_detail.html # 서버 상세 정보 페이지 │ ├── agent.js # 에이전트 스크립트 │ ├── ai_processor.js # 자연어 처리 엔진 │ ├── data_processor.js # 데이터 처리 로직 │ ├── dummy_data_generator.js # 더미 데이터 생성기 │ ├── fixed_dummy_data.js # 고정 더미 데이터 │ ├── summary.js # 데이터 요약 및 보고서 생성 │ └── config.js # 설정 파일 │ └── mcp-lite-server/ # 백엔드 서버 ├── context/ # 컨텍스트 문서 보관 ├── server.js # 백엔드 서버 코드 └── package.json # 백엔드 의존성 정의

Flujo de enlace MCP

El frontend y el servidor MCP Lite están integrados de la siguiente manera:

  1. Frontend : El usuario ingresa preguntas sobre el estado del servidor en lenguaje natural
  2. Llamada API : el frontend envía una pregunta e información de contexto al punto final /query del servidor MCP.
  3. Procesamiento de backend : el servidor MCP hace coincidir la pregunta con el archivo de contexto y genera una respuesta adecuada.
  4. Mostrar resultados : la respuesta se pasa al frontend y se muestra visualmente al usuario.

En un entorno de demostración :

  • La mayor parte de la lógica se ejecuta en el frontend y se utilizan datos virtuales.
  • El servidor MCP cumple una función secundaria y proporciona únicamente funciones simples de procesamiento del lenguaje natural.
  • En un entorno real, el servidor MCP se puede ampliar para vincular datos de monitoreo reales con LLM avanzado.

Características principales

  • Consultas basadas en lenguaje natural : permite a los administradores hacer preguntas sobre el estado del servidor y problemas en un lenguaje cotidiano.
  • Análisis automático : el sistema analiza la pregunta y proporciona una lista de servidores relacionados y la causa del problema.
  • Panel de control intuitivo : muestra visualmente el estado del servidor y las métricas de rendimiento.
  • Informe detallado : genere un informe de análisis que incluya la causa y la solución del problema.
  • Filtrado de datos : capacidad de filtrar por tiempo, tipo de servidor y ubicación

Pila de tecnología

Interfaz

  • HTML5/CSS3/JavaScript (Vainilla)
  • Marco de interfaz de usuario Bootstrap
  • Chart.js (visualización de datos)
  • Íconos de Font Awesome/Bootstrap (Íconos)

Backend

  • Node.js
  • Express.js
  • Sistema de gestión de contexto basado en archivos

Arquitectura del sistema: Agente de IA a gran escala frente a este proyecto (basado en MCP)

Arquitectura de agente de IA basada en LLM real

  • Flujo de datos: Registro de monitoreo en tiempo real → Recopilador (Kafka/Fluentd, etc.) → Motor de análisis
  • Procesamiento del lenguaje natural:
    • Integración con API LLM (OpenAI, Claude, etc.)
    • Backend basado en Python/Java
    • Incluye capacidades avanzadas de interpretación de consultas y comprensión contextual.
  • Motor de análisis:
    • Integración con motores de búsqueda/series temporales como InfluxDB y Elasticsearch
    • Análisis de patrones basado en eventos, activación de alarmas
  • Integración de UI:
    • Panel de control totalmente integrado
    • Interfaz conversacional + aprendizaje del historial de uso

⚙️ Este proyecto (sistema de demostración ligero basado en MCP)

Este proyecto contiene varias capas de lógica de “agente de IA” desarrollada internamente para proporcionar una funcionalidad similar a la de la IA sin la necesidad de LLM (modelo de lenguaje grande). Cada componente desempeña una función específica y trabaja en conjunto para brindar a los usuarios una experiencia de monitoreo y análisis de servidor inteligente.

  • Frontend: construido en HTML/JS puro, implementado en Netlify. La mayor parte de la lógica compleja del agente de IA está contenida aquí.
  • Servidor MCP (backend): basado en Node.js, implementado en Render. Es principalmente responsable de funciones simples de preguntas y respuestas y análisis estadístico.
Componentes multicapa de “agente de IA sin LLM”
  1. Servidor MCP simple (punto final de /query en mcp-lite-server/server.js ):
    • Rol: Proporciona una funcionalidad básica de respuesta a consultas de coincidencia de palabras clave en función del contenido de los archivos de texto en context/ carpeta.
    • Cómo funciona: responde verificando si una palabra en la consulta del usuario está contenida en una línea específica en el archivo de contexto.
    • Limitaciones: La coincidencia simple de cadenas puede generar una comprensión contextual deficiente y puede devolver información irrelevante.
  2. Agente de IA de backend ( mcp-lite-server/ai_agent.js y punto final /api/ai/query ):
    • Función: Detectar anomalías a través del análisis estadístico (por ejemplo, puntuación Z) en datos de métricas del servidor y generar respuestas en lenguaje natural simples y basadas en patrones para ciertos tipos de preguntas.
    • Cómo funciona: analiza datos numéricos para identificar valores estadísticos atípicos y utiliza plantillas de respuesta predefinidas.
    • Limitaciones: Solo responde a escenarios y tipos de preguntas limitados.
  3. Procesador de IA de frontend ( frontend/ai_processor.js ):
    • Función: Ejecutar la lógica de agente sin LLM más sofisticada en el sistema actual. Responsable de definir patrones de problemas detallados basados en reglas, analizar consultas en lenguaje natural del usuario (NLU simple), analizar causas y sugerir soluciones y generar contenido de informes dinámicos.
    • Cómo funciona: analiza los datos del servidor según las reglas y condiciones definidas en problemPatterns , identifica la intención de la pregunta del usuario a través de analyzeQuery y proporciona información personalizada a través de varias funciones generate...Response .
    • Características: La mayor parte de la lógica inteligente se implementa dentro del código JavaScript del frontend.
Ventajas y limitaciones de este enfoque
  • mérito:
    • Trabaje como IA sin LLM (bajo costo/alta eficiencia)
    • La respuesta se puede ampliar simplemente agregando documentos (para servidores MCP simples)
    • Bajos costos de introducción y mantenimiento (sin dependencia ni costos de API LLM externas)
    • Posibilidad de establecer reglas optimizadas para dominios específicos (monitoreo de servidores)
  • margen:
    • Capacidad limitada de interpretación de preguntas (sin comprensión del contexto, profundidad limitada de comprensión del lenguaje natural)
    • No es adecuado para análisis en tiempo real a gran escala
    • El rendimiento depende de la sofisticación de las reglas y patrones, y es difícil responder con flexibilidad a nuevos tipos de problemas o preguntas (especialmente en los procesadores de IA front-end).
    • Debido a que la lógica central se concentra en el frontend, puede haber limitaciones en la escalabilidad y el mantenimiento.

🤖 Método de desarrollo (basado en Vibe Coding)

Este proyecto se desarrolló ingresando indicaciones en una herramienta basada en GPT y usando el Cursor para guiar la codificación de IA .

Flujo de la fase de desarrollo

Paso 1: Planificación inicial y definición de funciones (mediante GPT)
  • Propuesta de Estructura del Proyecto
  • Definición de la función del servidor MCP y del método de respuesta basado en el contexto
  • Establecer la pila de tecnología y la dirección básica de la interfaz de usuario
Paso 2: Implementación de funciones e integración front-end (usando Cursor)
  • Configuración del código JS frontal
  • Procesamiento de búsqueda de solicitudes MCP
  • Representación de la respuesta de Markdown
Paso 3: Respuesta de patrón avanzado y de documento (colaboración de cursor + GPT)
  • Contexto Ampliación de la estructura de respuesta multidocumento
  • Diseño de plantillas de informes automáticos
  • Diseño y procesamiento de documentos de respuesta por tipo de fallo

📐 Directrices de desarrollo

✅ UI y diseño

  • Los estilos index.html y UI deben permanecer en su estado actual (se recomienda conservar el 90 % o más)
  • Permitir cambios sólo en la medida en que no interrumpan el flujo de la experiencia del usuario.

✅ MCP Backend

  • La funcionalidad del servidor se puede mejorar libremente ampliando y agregando estructuras de contexto.
  • La estructura del documento de contexto sigue el formato de texto .txt o .md
  • Se recomienda la estructura RESTful al ampliar la API

Directrices de desarrollo

Siga estas pautas cuando trabaje en su proyecto:

Relacionado con la interfaz de usuario y el diseño (basado en la confirmación ad03d5f)

  • Archivos de índice e interfaz de usuario : el diseño UI/UX actual debe conservarse minuciosamente.
    • index.html y los componentes de interfaz de usuario visibles externamente deben conservar al menos el 90% de sus estilos actuales.
    • No modifique el diseño frontal a menos que sea absolutamente necesario.

Desarrollo backend

  • Mejoras de las funciones del backend : las mejoras y extensiones de las funciones del lado del servidor se pueden realizar de forma gratuita.
    • Lógica de procesamiento de datos mejorada
    • Agregar y optimizar puntos finales de API
    • Trabajar para mejorar el rendimiento y mejorar la escalabilidad

Instalar y ejecutar

Interfaz

cd frontend # 정적 서버로 실행 (예: VS Code의 Live Server 또는 기타 정적 파일 서버)

Servidor backend

cd mcp-lite-server npm install node server.js

Entorno de implementación

Planes de desarrollo futuros

  1. Integración de IA : Vinculación LLM de procesamiento del lenguaje natural real
  2. Datos en tiempo real : Integración con sistemas de monitorización de servidores reales (Prometheus, Zabbix, etc.)
  3. Ampliación de la visualización : diversificación de gráficos y tablas de análisis de datos
  4. Sistema de Notificación : Notificación automática y transmisión de informes en caso de fallo.

Información para desarrolladores

Este proyecto se desarrolló utilizando Vibe Coding basado en varios modelos de IA como Claude, GPT y Gemini.

Licencia

Este proyecto fue creado para fines de desarrollo interno y no se especifica ninguna licencia separada para él.

Mejoras recientes (versión v4.1.0)

1. Mejora y consistencia de la estructura ligera de NLU

  • Implementamos arquitecturas NLU (comprensión del lenguaje natural) livianas tanto en el frontend como en el backend.
  • Separe consistentemente las consultas de usuario en intenciones y entidades.
  • Intenciones: ESTADO_CPU, ESTADO_MEMORIA, ESTADO_DISCO, CONSULTA_INCIDENTE, ESTADO_SERVIDOR, etc.
  • Entidades: tipo_de_servidor, umbral, rango_de_tiempo, severidad, etc.

2. Lógica de procesamiento de consultas front-end-back-end mejorada

  • Se agregó la función de análisis NLU compatible con el backend al frontend process_query.js .
  • Mejorar la estructura de respuesta de la API de backend para proporcionar explícitamente información de intención y entidad al frontend.
  • Hemos mejorado el manejo de errores para garantizar un manejo de errores consistente en todos los puntos finales de API.

3. Manejo mejorado del contexto

  • Aproveche el contexto de la conversación para proporcionar respuestas más precisas y contextualizadas a las preguntas de seguimiento.
  • Ejemplo: después de hacer una pregunta sobre un servidor específico, mantenga el contexto haciendo una pregunta de seguimiento como "¿Explique por qué?"
  • Recuerde los tipos de métricas (CPU, memoria, etc.) mencionados en conversaciones anteriores y utilícelos en preguntas de seguimiento.

4. Experiencia de desarrollador mejorada

  • El desarrollo de frontend se vuelve más fácil al mantener una estructura de respuesta de API consistente.
  • Se agregó lógica de manejo de errores a todas las API para mejorar la estabilidad.
  • Se mejoró la capacidad de mantenimiento al mejorar la estructura del código backend.

Planes de mejora futuros

  1. Estructurar el archivo de contexto: convertir el contexto actual basado en el archivo de texto al formato JSON/YAML.
  2. Capacidades de NLU mejoradas: se agregó reconocimiento de más intenciones y entidades
  3. Mejoras en la interfaz de usuario del frontend: exprese visualmente funciones sensibles al contexto
  4. Optimización del rendimiento del backend: mejore el rendimiento del procesamiento de datos de métricas a gran escala

Related MCP Servers

  • -
    security
    F
    license
    -
    quality
    A server that implements a checklist management system with features like task creation, progress tracking, data persistence, and item comments.
    Last updated -
    5
    3
    TypeScript
  • A
    security
    F
    license
    A
    quality
    The server facilitates natural language interactions for exploring and understanding codebases, providing insights into data models and system architecture using a cost-effective, simple setup with support for existing Claude Pro subscriptions.
    Last updated -
    4
    7
    Python
    • Apple
  • -
    security
    F
    license
    -
    quality
    A server that enables interaction with PostgreSQL, MySQL, MariaDB, or SQLite databases through Claude Desktop using natural language queries.
    Last updated -
    Python
  • -
    security
    A
    license
    -
    quality
    A lightweight server that provides real-time system information including CPU, memory, disk, and GPU statistics for monitoring and diagnostic purposes.
    Last updated -
    Python
    MIT License

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/skyasu2/openmanager-vibe-v4'

If you have feedback or need assistance with the MCP directory API, please join our Discord server