OpenManager Vibe V4
OpenManager Vibe V4 — это система аналитики и мониторинга сервера на основе естественного языка. Когда администратор задает вопрос о состоянии сервера простым языком, система автоматически анализирует его и выдает результаты.
Ссылка на распространение
Фронтенд : https://openvibe3.netlify.app
API бэкэнда : https://openmanager-vibe-v4.onrender.com
Структура проекта
Поток связи MCP
Интерфейс и сервер MCP Lite интегрированы следующим образом:
Фронтенд : Пользователь вводит вопросы о состоянии сервера на естественном языке.
Вызов API : Фронтенд отправляет вопрос и контекстную информацию в конечную точку
/queryсервера MCP.Внутренняя обработка : сервер MCP сопоставляет вопрос с файлом контекста и генерирует соответствующий ответ.
Отображение результатов : ответ передается на интерфейс и отображается визуально для пользователя.
В демонстрационной среде :
Большая часть логики выполняется на внешнем интерфейсе, и используются виртуальные данные.
Сервер MCP выполняет второстепенную роль, предоставляя только простые функции обработки естественного языка.
В реальной среде сервер MCP можно расширить для связи реальных данных мониторинга с расширенным LLM.
Основные характеристики
Запросы на естественном языке : позволяет администраторам задавать вопросы о состоянии сервера и проблемах на повседневном языке.
Автоматический анализ : система анализирует вопрос и предоставляет список связанных серверов и причину проблемы.
Интуитивно понятная панель управления : визуально отображает состояние сервера и показатели производительности.
Подробный отчет : создание аналитического отчета, включая причину и решение проблемы.
Фильтрация данных : возможность фильтрации по времени, типу сервера и местоположению.
Технологический стек
Внешний интерфейс
HTML5/CSS3/JavaScript (ванильный)
Фреймворк пользовательского интерфейса Bootstrap
Chart.js (визуализация данных)
Font Awesome/Иконки Bootstrap (Иконки)
Бэкэнд
Node.js
Express.js
Система управления контекстом на основе файлов
🏗 Архитектура системы: Крупномасштабный агент ИИ против этого проекта (на основе MCP)
🧠 Реальная архитектура агента ИИ на основе LLM
Поток данных: Журнал мониторинга в реальном времени → Коллектор (Kafka/Fluentd и т. д.) → Механизм анализа
Обработка естественного языка:
Интеграция с LLM API (OpenAI, Claude и т. д.)
Бэкэнд на основе Python/Java
Включает расширенные возможности интерпретации запросов и понимания контекста
Механизм анализа:
Интеграция с временными рядами/поисковыми системами, такими как InfluxDB и Elasticsearch
Анализ шаблонов на основе событий, срабатывание сигнализации
Интеграция пользовательского интерфейса:
Полностью интегрированная панель управления
Разговорный интерфейс + изучение истории использования
⚙️ Этот проект (легкая демонстрационная система на базе MCP)
Этот проект содержит несколько уровней самостоятельно разработанной логики «ИИ-агента», обеспечивающей функциональность, подобную ИИ, без необходимости использования LLM (большой языковой модели). Каждый компонент выполняет определенную роль и работает вместе, пытаясь предоставить пользователям интеллектуальный серверный анализ и мониторинг.
Фронтенд: создан на чистом HTML/JS, развернут в Netlify. Большая часть сложной логики агента ИИ содержится здесь.
Сервер MCP (бэкэнд): на базе Node.js, развернут для рендеринга. Он в основном отвечает за простые функции вопросов и ответов и статистического анализа.
Многослойные компоненты «LLM-Free AI Agent»
Простой сервер MCP (конечная точка
Роль: Обеспечивает базовую функциональность поиска и ответа на запросы по ключевым словам на основе содержимого текстовых файлов в папке
context/.Как это работает: отвечает, проверяя, содержится ли слово в запросе пользователя в определенной строке в файле контекста.
Ограничения: Простое сопоставление строк может привести к плохому пониманию контекста и возврату нерелевантной информации.
Внутренний агент ИИ (конечная точка
Роль: обнаружение аномалий посредством статистического анализа (например, Z-оценки) данных показателей сервера и генерация простых, основанных на шаблонах ответов на естественном языке для определенных типов вопросов.
Как это работает: анализирует числовые данные для выявления статистических выбросов и использует предопределенные шаблоны ответов.
Ограничения: отвечает только на ограниченное количество сценариев и типов вопросов.
Фронтенд-процессор ИИ (
Роль: Реализовать самую сложную логику агента без LLM в текущей системе. Отвечает за определение подробных шаблонов проблем на основе правил, анализ запросов пользователей на естественном языке (простой NLU), анализ причин и предложение решений, а также создание динамического содержимого отчетов.
Как это работает: анализирует данные сервера на основе правил и условий, определенных в
problemPatterns, определяет цель вопроса пользователя с помощьюanalyzeQueryи предоставляет настраиваемую информацию с помощью различных функцийgenerate...Response.Особенности: Большая часть интеллектуальной логики реализована в коде JavaScript интерфейса.
Преимущества и ограничения этого подхода
заслуга:
Работа как ИИ без LLM (низкая стоимость/высокая эффективность)
Ответ можно расширить, просто добавив документы (для простых серверов MCP)
Низкие затраты на внедрение и обслуживание (отсутствие зависимости от внешнего API LLM и затрат на него)
Возможность установки правил, оптимизированных для определенных доменов (мониторинг сервера)
допуск:
Ограниченная способность интерпретации вопросов (отсутствие понимания контекста, ограниченная глубина понимания естественного языка)
Не подходит для крупномасштабного анализа в реальном времени.
Производительность зависит от сложности правил и шаблонов, и сложно гибко реагировать на новые типы проблем или вопросы (особенно это касается интерфейсных процессоров ИИ).
Поскольку основная логика сосредоточена во внешнем интерфейсе, могут возникнуть ограничения в масштабируемости и удобстве обслуживания.
🤖 Метод разработки (на основе Vibe Coding)
Этот проект был разработан путем ввода подсказок в инструмент на основе GPT и использования курсора для управления кодированием ИИ .
Поток фазы разработки
Шаг 1: Первоначальное планирование и определение функций (с использованием GPT)
Предложение по структуре проекта
Определение роли сервера MCP и метода ответа на основе контекста
Установка основного направления стека технологий и пользовательского интерфейса
Шаг 2: Реализация функций и интеграция с интерфейсом (с использованием курсора)
Конфигурация фронтального JS-кода
Обработка выборки запроса MCP
Отображение ответа Markdown
Шаг 3: Расширенный ответ и шаблон документа (совместная работа курсора и GPT)
контекст Расширение структуры ответа на несколько документов
Разработка шаблонов автоматических отчетов
Проектирование и ветвь обработки ответных документов по типу отказа
📐 Руководство по разработке
✅ Пользовательский интерфейс и дизайн
index.htmlи стили пользовательского интерфейса должны оставаться актуальными (рекомендуется сохранение 90% или более)Разрешайте вносить изменения только в той мере, в которой они не нарушают пользовательский интерфейс.
✅ MCP-бэкэнд
Функциональность сервера можно свободно улучшать путем расширения и добавления контекстных структур.
Структура контекстного документа соответствует текстовому формату
.txtили.mdПри расширении API рекомендуется использовать структуру RESTful
Руководство по разработке
При работе над проектом следуйте этим рекомендациям:
Связанные с пользовательским интерфейсом и дизайном (на основе коммита ad03d5f)
Индексный файл и пользовательский интерфейс : текущий дизайн UI/UX должен быть тщательно сохранен.
index.htmlи видимые извне компоненты пользовательского интерфейса должны сохранить не менее 90% своих текущих стилей.Не изменяйте дизайн интерфейса без крайней необходимости.
Разработка бэкэнда
Улучшения функций бэкэнда : улучшения и расширения функций на стороне сервера можно реализовать бесплатно.
Улучшенная логика обработки данных
Добавить и оптимизировать конечные точки API
Работа по повышению производительности и улучшению масштабируемости
Установить и запустить
Внешний интерфейс
Внутренний сервер
Среда развертывания
Интерфейс : Netlify ( https://openvibe3.netlify.app )
Бэкэнд : Render.com ( https://openmanager-vibe-v4.onrender.com )
Планы дальнейшего развития
Интеграция ИИ : Реальная обработка естественного языка Связь LLM
Данные в реальном времени : интеграция с реальными системами мониторинга серверов (Prometheus, Zabbix и т. д.)
Расширение визуализации : диверсификация графиков и диаграмм анализа данных
Система оповещения : автоматическое оповещение и передача отчетов в случае сбоя
Информация для разработчиков
Этот проект был разработан с использованием Vibe Coding на основе различных моделей ИИ, таких как Claude, GPT и Gemini.
Лицензия
Данный проект был создан для внутренних целей разработки и для него не предусмотрена отдельная лицензия.
Последние улучшения (версия v4.1.0)
1. Улучшение и согласованность облегченной структуры NLU
Мы реализовали облегченную архитектуру NLU (понимание естественного языка) как на фронтенде, так и на бэкенде.
Последовательно разделяйте запросы пользователей на намерения и сущности.
Намерения: CPU_STATUS, MEMORY_STATUS, DISK_STATUS, INCIDENT_QUERY, SERVER_STATUS и т. д.
Сущности: тип_сервера, порог, временной_диапазон, серьезность и т. д.
2. Улучшена логика обработки запросов front-end-back-end.
Добавлена функция анализа NLU, совместимая с бэкэндом, во фронтэнд
process_query.js.Улучшить структуру ответа API бэкэнда, чтобы явно предоставлять информацию о намерениях и сущностях фронтэнду.
Мы улучшили обработку ошибок, чтобы обеспечить единообразную обработку ошибок во всех конечных точках API.
3. Улучшенная обработка контекста
Используйте контекст разговора, чтобы давать более точные и контекстные ответы на последующие вопросы.
Пример: задав вопрос о конкретном сервере, сохраните контекст, задав дополнительный вопрос, например: «Объясните почему?»
Запомните типы метрик (ЦП, память и т. д.), упомянутые в предыдущих беседах, и используйте их в последующих вопросах.
4. Улучшенный опыт разработчика
Разработка фронтенда упрощается за счет поддержания единообразной структуры ответов API.
Добавлена логика обработки ошибок во все API для повышения стабильности.
Улучшение удобства обслуживания за счет улучшения структуры внутреннего кода.
Планы по улучшению на будущее
Структурирование файла контекста. Преобразование текущего контекста на основе текстового файла в формат JSON/YAML.
Расширенные возможности NLU — добавлено распознавание большего количества намерений и сущностей
Улучшения пользовательского интерфейса — визуальное отображение контекстно-зависимых функций
Оптимизация производительности бэкэнда — повышение производительности обработки крупномасштабных данных метрик.
This server cannot be installed
Related Resources
Related MCP Servers
- AsecurityAlicenseAqualityA JVM monitoring and control platform server based on Arthas that provides a Python interface for monitoring and analyzing Java processes with capabilities for thread analysis, memory monitoring, and performance diagnostics.Last updated -1572MIT License
- AsecurityAlicenseAqualityA lightweight server that provides real-time system information including CPU, memory, disk, and GPU statistics for monitoring and diagnostic purposes.Last updated -1MIT License
- AsecurityAlicenseAqualityA server monitoring and inspection tool collection that provides remote utilities for checking network interfaces, service statuses, and firewall configurations on servers.Last updated -1943MIT License
- AsecurityAlicenseAqualityA file monitoring server that tracks filesystem events and provides real-time notifications to AI assistants, enabling them to automatically respond to file changes without manual updates.Last updated -419MIT License