Used for UI framework components in the frontend dashboard for server monitoring and visualization
Provides data visualization capabilities for displaying server performance metrics and monitoring data
Used for styling the server monitoring dashboard and user interface components
OpenManager Vibe V4
OpenManager Vibe V4 — это система аналитики и мониторинга сервера на основе естественного языка. Когда администратор задает вопрос о состоянии сервера простым языком, система автоматически анализирует его и выдает результаты.
Ссылка на распространение
- Фронтенд : https://openvibe3.netlify.app
- API бэкэнда : https://openmanager-vibe-v4.onrender.com
Структура проекта
Поток связи MCP
Интерфейс и с��рвер MCP Lite интегрированы следующим образом:
- Фронтенд : Пользователь вводит вопросы о состоянии сервера на естественном языке.
- Вызов API : Фронтенд отправляет вопрос и контекстную информацию в конечную точку
/query
сервера MCP. - Внутренняя обработка : сервер MCP сопоставляет вопрос с файлом контекста и генерирует соответствующий ответ.
- Отображение результатов : ответ передается на интерфейс и отображается визуально для пользователя.
В демонстрационной среде :
- Большая часть логики выполняется на внешнем интерфейсе, и используются виртуальные данные.
- Сервер MCP выполняет второстепенную роль, предоставляя только простые функции обработки естественного языка.
- В реальной среде сервер MCP можно расширить для связи реальных данных мониторинга с расширенным LLM.
Основные характеристики
- Запросы на естественном языке : позволяет администраторам задавать вопросы о состоянии сервера и проблемах на повседневном языке.
- Автоматический анализ : система анализирует вопрос и предоставляет список связанных серверов и причину проблемы.
- Интуитивно понятная панель управления : визуально отображает состояние сервера и показатели производительности.
- Подробный отчет : создание аналитического отчета, включая причину и решение проблемы.
- Фильтрация данных : возможность фильтрации по времени, типу сервера и местоположению.
Технологический стек
Внешний интерфейс
- HTML5/CSS3/JavaScript (ванильный)
- Фреймворк пользовательского интерфейса Bootstrap
- Chart.js (визуализация данных)
- Font Awesome/Иконки Bootstrap (Иконки)
Бэкэнд
- Node.js
- Express.js
- Система управления контекстом на основе файлов
🏗 Архитектура системы: Крупномасштабный агент ИИ против этого проекта (на основе MCP)
🧠 Реальная архитектура агента ИИ на основе LLM
- Поток данных: Журнал мониторинга в реальном времени → Коллектор (Kafka/Fluentd и т. д.) → Механизм анализа
- Обработка естественного языка:
- Интеграция с LLM API (OpenAI, Claude и т. д.)
- Бэкэнд на основе Python/Java
- Включает расширенные возможности интерпретации запросов и понимания контекста
- Механизм анализа:
- Интеграция с временными рядами/поисковыми системами, такими как InfluxDB и Elasticsearch
- Анализ шаблонов на основе событий, срабатывание сигнализации
- Интеграция пользовательского интерфейса:
- Полностью интегрированная панель управления
- Разговорный интерфейс + изучение истории использования
⚙️ Этот проект (легкая демонстрационная система на базе MCP)
Этот проект содержит несколько уровней самостоятельно разработанной логики «ИИ-агента», обеспечивающей функциональность, подобную ИИ, без необходимости использования LLM (большой языковой модели). Каждый компонент выполняет определенную роль и работает вместе, пытаясь предоставить пользователям интеллектуальный серверный анализ и мониторинг.
- Фронтенд: создан на чистом HTML/JS, развернут в Netlify. Большая часть сложной логики агента ИИ содержится здесь.
- Сервер MCP (бэкэнд): на базе Node.js, развернут для рендеринга. Он в основном отвечает за простые функции вопросов и ответов и статистического анализа.
Многослойные компоненты «LLM-Free AI Agent»
- Простой сервер MCP (конечная точка
/query
вmcp-lite-server/server.js
):- Роль: Обеспечивает базовую функциональность поиска и ответа на запросы по ключевым словам на основе содержимого текстовых файлов в папке
context/
. - Как это работает: отвечает, проверяя, содержится ли слово в запросе пользователя в определенной строке в файле контекста.
- Ограничения: Простое сопоставление строк может привести к плохому пониманию контекста и возврату нерелевантной информации.
- Роль: Обеспечивает базовую функциональность поиска и ответа на запросы по ключевым словам на основе содержимого текстовых файлов в папке
- Внутренний агент ИИ (конечная точка
mcp-lite-server/ai_agent.js
и/api/ai/query
):- Роль: обнаружение аномалий посредством статистического анализа (например, Z-оценки) данных показателей сервера и генерация простых, основанных на шаблонах ответов на естественном языке для определенных типов вопросов.
- Как это работает: анализирует числовые данные для выявления статистических выбросов и использует предопределенные шаблоны ответов.
- Ограничения: отвечает только на ограниченное количество сценариев и типов вопросов.
- Фронтенд-процессор ИИ (
frontend/ai_processor.js
):- Роль: Реализовать самую сложную логику агента без LLM в текущей системе. Отвечает за определение подробных шаблонов проблем на основе правил, анализ запросов пользователей на естественном языке (простой NLU), анализ причин и предложение решений, а также создание динамического содержимого отчетов.
- Как это работает: анализирует данные сервера на основе правил и условий, определенных в
problemPatterns
, определяет цель вопроса пользователя с помощьюanalyzeQuery
и предоставляет настраиваемую информацию с помощью различных функцийgenerate...Response
. - Особенности: Большая часть интеллектуальной логики реализована в коде JavaScript интерфейса.
Преимущества и ограничения этого подхода
- заслуга:
- Работа как ИИ без LLM (низкая стоимость/высокая эффективность)
- Ответ можно расширить, просто добавив документы (для простых серверов MCP)
- Низкие затраты на внедрение и обслуживание (отсутствие зависимости от внешнего API LLM и затрат на него)
- Возможность установки правил, оптимизированных для определенных доменов (мониторинг сервера)
- допуск:
- Ограниченная способность интерпретации вопросов (отсутствие понимания контекста, ограниченная глубина понимания естественного языка)
- Не подходит для крупномасштабного анализа в реальном времени.
- Производительность зависит от сложности правил и шаблонов, и сложно гибко реагировать на новые типы проблем или вопросы (особенно это касается интерфейсных процессоров ИИ).
- Поскольку основная логика сосредоточена во внешнем интерфейсе, могут возникнуть ограничения в масштабируемости и удобстве обслуживания.
🤖 Метод разработки (на основе Vibe Coding)
Этот проект был разработан путем ввода подсказок в инструмент на основе GPT и использования курсора для управления кодированием ИИ .
Поток фазы разработки
Шаг 1: Первоначальное планирование и определение функций (с использованием GPT)
- Предложение по структуре проекта
- Определение роли сервера MCP и метода ответа на основе контекста
- Установка основного направления стека технологий и пользовательского интерфейса
Шаг 2: Реализация функций и интеграция с интерфейсом (с использованием курсора)
- Конфигурация фронтального JS-кода
- Обработка выборки запроса MCP
- Отображение ответа Markdown
Шаг 3: Расширенный ответ и шаблон документа (совместная работа курсора и GPT)
- контекст Расширение структуры ответа на несколько документов
- Разработка шаблонов автоматических отчетов
- Проектирование и ветвь обработки ответных документов по типу отказа
📐 Руководство по разработке
✅ Пользовательский интерфейс и дизайн
index.html
и стили пользовательского интерфейса должны оставаться актуальными (рекомендуется сохранение 90% или более)- Разрешайте вносить изменения только в той мере, в которой они не нарушают пользовательский интерфейс.
✅ MCP-бэкэнд
- Функциональность сервера можно свободно улучшать путем расширения и добавления контекстных структур.
- Структура контекстного документа соответствует текстовому формату
.txt
или.md
- При расширении API рекомендуется использовать структуру RESTful
Руководство по разработке
При работе над проектом следуйте этим рекомендациям:
Связанные с пользовательским интерфейсом и дизайном (на основе коммита ad03d5f)
- Индексный файл и пользовательский интерфейс : текущий дизайн UI/UX должен быть тщательно сохранен.
index.html
и видимые извне компоненты пользовательского интерфейса должны сохранить не менее 90% своих текущих стилей.- Не изменяйте дизайн интерфейса без крайней необходимости.
Разработка бэкэнда
- Улучшения функций бэкэнда : улучшения и расширения функций на стороне сервера можно реализовать бесплатно.
- Улучшенная логика обработки данных
- Добавить и оптимизировать конечные точки API
- Работа по повышению производительности и улучшению масштабируемости
Установить и запустить
Внешний интерфейс
Внутренний сервер
Среда развертывания
- Интерфейс : Netlify ( https://openvibe3.netlify.app )
- Бэкэнд : Render.com ( https://openmanager-vibe-v4.onrender.com )
Планы дальнейшего развития
- Интеграция ИИ : Реальная обработка естественного языка Связь LLM
- Данные в реальном времени : интеграция с реальными системами мониторинга серверов (Prometheus, Zabbix и т. д.)
- Расширение визуализации : диверсификация графиков и диаграмм анализа данных
- Система оповещения : автоматическое оповещение и передача отчетов в случае сбоя
Информация для разработчиков
Этот проект был разработан с использованием Vibe Coding на основе различных моделей ИИ, таких как Claude, GPT и Gemini.
Лицензия
Данный проект был создан для внутренних целей разработки и для него не предусмотрена отдельная лицензия.
Последние улучшения (версия v4.1.0)
1. Улучшение и согласованность облегченной структуры NLU
- Мы реализовали облегченную архитектуру NLU (понимание естественного языка) как на фронтенде, так и на бэкенде.
- Последовательно разделяйте запросы пользователей на намерения и сущности.
- Намерения: CPU_STATUS, MEMORY_STATUS, DISK_STATUS, INCIDENT_QUERY, SERVER_STATUS и т. д.
- Сущности: тип_сервера, порог, временной_диапазон, серьезность и т. д.
2. Улучшена логика обработки запросов front-end-back-end.
- Добавлена функция анализа NLU, совместимая с бэкэндом, во фронтэнд
process_query.js
. - Улучшить структуру ответа API бэкэнда, чтобы явно предоставлять информацию о намерениях и сущностях фронтэнду.
- Мы улучшили обработку ошибок, чтобы обеспечить единообразную обработку ошибок во всех конечных точках API.
3. Улучшенная обработка контекста
- Используйте контекст разговора, чтобы давать более точные и контекстные ответы на последующие вопросы.
- Пример: задав вопрос о конкретном сервере, сохраните контекст, задав дополнительный вопрос, например: «Объясните почему?»
- Запомните типы метрик (ЦП, память и т. д.), упомянутые в предыдущих беседах, и используйте их в последующих вопросах.
4. Улучшенный опыт разработчика
- Разработка фронтенда упрощается за счет поддержания единообразной структуры ответов API.
- Добавлена логика обработки ошибок во все API для повышения стабильности.
- Улучшение удобства обслуживания за счет улучшения структуры внутреннего кода.
Планы по улучшению на будущее
- Структурирование файла контекста. Преобразование текущего контекста на основе текстового файла в формат JSON/YAML.
- Расширенные возможности NLU — добавлено распознавание большего количества намерений и сущностей
- Улучшения пользовательского интерфейса — визуальное отображение контекстно-зависимых функций
- Оптимизация производительности бэкэнда — повышение производительности обработки крупномасштабных данных метрик.
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Система анализа и мониторинга сервера на основе естественного языка, которая автоматически обрабатывает запросы пользователей о состоянии сервера и предоставляет подробные ответы с визуализацией.
- Ссылка на распространение
- Структура проекта
- Поток связи MCP
- Основные характеристики
- Технологический стек
- 🏗 Архитектура системы: Крупномасштабный агент ИИ против этого проекта (на основе MCP)
- 🤖 Метод разработки (на основе Vibe Coding)
- 📐 Руководство по разработке
- Руководство по разработке
- Установить и запустить
- Среда развертывания
- Планы дальнейшего развития
- Информация для разработчиков
- Лицензия
- Последние улучшения (версия v4.1.0)
- Планы по улучшению на будущее
Related MCP Servers
- -securityFlicense-qualityA server that implements a checklist management system with features like task creation, progress tracking, data persistence, and item comments.Last updated -53TypeScript
- AsecurityFlicenseAqualityThe server facilitates natural language interactions for exploring and understanding codebases, providing insights into data models and system architecture using a cost-effective, simple setup with support for existing Claude Pro subscriptions.Last updated -47Python
- -securityFlicense-qualityA server that enables interaction with PostgreSQL, MySQL, MariaDB, or SQLite databases through Claude Desktop using natural language queries.Last updated -Python
- -securityAlicense-qualityA lightweight server that provides real-time system information including CPU, memory, disk, and GPU statistics for monitoring and diagnostic purposes.Last updated -PythonMIT License