OpenManager Vibe V4
OpenManager Vibe V4 — это система аналитики и мониторинга сервера на основе естественного языка. Когда администратор задает вопрос о состоянии сервера простым языком, система автоматически анализирует его и выдает результаты.
Ссылка на распространение
- Фронтенд : https://openvibe3.netlify.app
- API бэкэнда : https://openmanager-vibe-v4.onrender.com
Структура проекта
Поток связи MCP
Интерфейс и с��рвер MCP Lite интегрированы следующим образом:
- Фронтенд : Пользователь вводит вопросы о состоянии сервера на естественном языке.
- Вызов API : Фронтенд отправляет вопрос и контекстную информацию в конечную точку
/query
сервера MCP. - Внутренняя обработка : сервер MCP сопоставляет вопрос с файлом контекста и генерирует соответствующий ответ.
- Отображение результатов : ответ передается на интерфейс и отображается визуально для пользователя.
В демонстрационной среде :
- Большая часть логики выполняется на внешнем интерфейсе, и используются виртуальные данные.
- Сервер MCP выполняет второстепенную роль, предоставляя только простые функции обработки естественного языка.
- В реальной среде сервер MCP можно расширить для связи реальных данных мониторинга с расширенным LLM.
Основные характеристики
- Запросы на естественном языке : позволяет администраторам задавать вопросы о состоянии сервера и проблемах на повседневном языке.
- Автоматический анализ : система анализирует вопрос и предоставляет список связанных серверов и причину проблемы.
- Интуитивно понятная панель управления : визуально отображает состояние сервера и показатели производительности.
- Подробный отчет : создание аналитического отчета, включая причину и решение проблемы.
- Фильтрация данных : возможность фильтрации по времени, типу сервера и местоположению.
Технологический стек
Внешний интерфейс
- HTML5/CSS3/JavaScript (ванильный)
- Фреймворк пользовательского интерфейса Bootstrap
- Chart.js (визуализация данных)
- Font Awesome/Иконки Bootstrap (Иконки)
Бэкэнд
- Node.js
- Express.js
- Система управления контекстом на основе файлов
🏗 Архитектура системы: Крупномасштабный агент ИИ против этого проекта (на основе MCP)
🧠 Реальная архитектура агента ИИ на основе LLM
- Поток данных: Журнал мониторинга в реальном времени → Коллектор (Kafka/Fluentd и т. д.) → Механизм анализа
- Обработка естественного языка:
- Интеграция с LLM API (OpenAI, Claude и т. д.)
- Бэкэнд на основе Python/Java
- Включает расширенные возможности интерпретации запросов и понимания контекста
- Механизм анализа:
- Интеграция с временными рядами/поисковыми системами, такими как InfluxDB и Elasticsearch
- Анализ шаблонов на основе событий, срабатывание сигнализации
- Интеграция пользовательского интерфейса:
- Полностью интегрированная панель управления
- Разговорный интерфейс + изучение истории использования
⚙️ Этот проект (легкая демонстрационная система на базе MCP)
Этот проект содержит несколько уровней самостоятельно разработанной логики «ИИ-агента», обеспечивающей функциональность, подобную ИИ, без необходимости использования LLM (большой языковой модели). Каждый компонент выполняет определенную роль и работает вместе, пытаясь предоставить пользователям интеллектуальный серверный анализ и мониторинг.
- Фронтенд: создан на чистом HTML/JS, развернут в Netlify. Большая часть сложной логики агента ИИ содержится здесь.
- Сервер MCP (бэкэнд): на базе Node.js, развернут для рендеринга. Он в основном отвечает за простые функции вопросов и ответов и статистического анализа.
Многослойные компоненты «LLM-Free AI Agent»
- Простой сервер MCP (конечная точка
/query
вmcp-lite-server/server.js
):- Роль: Обеспечивает базовую функциональность поиска и ответа на запросы по ключевым словам на основе содержимого текстовых файлов в папке
context/
. - Как это работает: отвечает, проверяя, содержится ли слово в запросе пользователя в определенной строке в файле контекста.
- Ограничения: Простое сопоставление строк может привести к плохому пониманию контекста и возврату нерелевантной информации.
- Роль: Обеспечивает базовую функциональность поиска и ответа на запросы по ключевым словам на основе содержимого текстовых файлов в папке
- Внутренний агент ИИ (конечная точка
mcp-lite-server/ai_agent.js
и/api/ai/query
):- Роль: обнаружение аномалий посредством статистического анализа (например, Z-оценки) данных показателей сервера и генерация простых, основанных на шаблонах ответов на естественном языке для определенных типов вопросов.
- Как это работает: анализирует числовые данные для выявления статистических выбросов и использует предопределенные шаблоны ответов.
- Ограничения: отвечает только на ограниченное количество сценариев и типов вопросов.
- Фронтенд-процессор ИИ (
frontend/ai_processor.js
):- Роль: Реализовать самую сложную логику агента без LLM в текущей системе. Отвечает за определение подробных шаблонов проблем на основе правил, анализ запросов пользователей на естественном языке (простой NLU), анализ причин и предложение решений, а также создание динамического содержимого отчетов.
- Как это работает: анализирует данные сервера на основе правил и условий, определенных в
problemPatterns
, определяет цель вопроса пользователя с помощьюanalyzeQuery
и предоставляет настраиваемую информацию с помощью различных функцийgenerate...Response
. - Особенности: Большая часть интеллектуальной логики реализована в коде JavaScript интерфейса.
Преимущества и ограничения этого подхода
- заслуга:
- Работа как ИИ без LLM (низкая стоимость/высокая эффективность)
- Ответ можно расширить, просто добавив документы (для простых серверов MCP)
- Низкие затраты на внедрение и обслуживание (отсутствие зависимости от внешнего API LLM и затрат на него)
- Возможность установки правил, оптимизированных для определенных доменов (мониторинг сервера)
- допуск:
- Ограниченная способность интерпретации вопросов (отсутствие понимания контекста, ограниченная глубина понимания естественного языка)
- Не подходит для крупномасштабного анализа в реальном времени.
- Производительность зависит от сложности правил и шаблонов, и сложно гибко реагировать на новые типы проблем или вопросы (особенно это касается интерфейсных процессоров ИИ).
- Поскольку основная логика сосредоточена во внешнем интерфейсе, могут возникнуть ограничения в масштабируемости и удобстве обслуживания.
🤖 Метод разработки (на основе Vibe Coding)
Этот проект был разработан путем ввода подсказок в инструмент на основе GPT и использования курсора для управления кодированием ИИ .
Поток фазы разработки
Шаг 1: Первоначальное планирование и определение функций (с использованием GPT)
- Предложение по структуре проекта
- Определение роли сервера MCP и метода ответа на основе контекста
- Установка основного направления стека технологий и пользовательского интерфейса
Шаг 2: Реализация функций и интеграция с интерфейсом (с использованием курсора)
- Конфигурация фронтального JS-кода
- Обработка выборки запроса MCP
- Отображение ответа Markdown
Шаг 3: Расширенный ответ и шаблон документа (совместная работа курсора и GPT)
- контекст Расширение структуры ответа на несколько документов
- Разработка шаблонов автоматических отчетов
- Проектирование и ветвь обработки ответных документов по типу отказа
📐 Руководство по разработке
✅ Пользовательский интерфейс и дизайн
index.html
и стили пользовательского интерфейса должны оставаться актуальными (рекомендуется сохранение 90% или более)- Разрешайте вносить изменения только в той мере, в которой они не нарушают пользовательский интерфейс.
✅ MCP-бэкэнд
- Функциональность сервера можно свободно улучшать путем расширения и добавления контекстных структур.
- Структура контекстного документа соответствует текстовому формату
.txt
или.md
- При расширении API рекомендуется использовать структуру RESTful
Руководство по разработке
При работе над проектом следуйте этим рекомендациям:
Связанные с пользовательским интерфейсом и дизайном (на основе коммита ad03d5f)
- Индексный файл и пользовательский интерфейс : текущий дизайн UI/UX должен быть тщательно сохранен.
index.html
и видимые извне компоненты пользовательского интерфейса должны сохранить не менее 90% своих текущих стилей.- Не изменяйте дизайн интерфейса без крайней необходимости.
Разработка бэкэнда
- Улучшения функций бэкэнда : улучшения и расширения функций на стороне сервера можно реализовать бесплатно.
- Улучшенная логика обработки данных
- Добавить и оптимизировать конечные точки API
- Работа по повышению производительности и улучшению масштабируемости
Установить и запустить
Внешний интерфейс
Внутренний сервер
Среда развертывания
- Интерфейс : Netlify ( https://openvibe3.netlify.app )
- Бэкэнд : Render.com ( https://openmanager-vibe-v4.onrender.com )
Планы дальнейшего развития
- Интеграция ИИ : Реальная обработка естественного языка Связь LLM
- Данные в реальном времени : интеграция с реальными системами мониторинга серверов (Prometheus, Zabbix и т. д.)
- Расширение визуализации : диверсификация графиков и диаграмм анализа данных
- Система оповещения : автоматическое оповещение и передача отчетов в случае сбоя
Информация для разработчиков
Этот проект был разработан с использованием Vibe Coding на основе различных моделей ИИ, таких как Claude, GPT и Gemini.
Лицензия
Данный проект был создан для внутренних целей разработки и для него не предусмотрена отдельная лицензия.
Последние улучшения (версия v4.1.0)
1. Улучшение и согласованность облегченной структуры NLU
- Мы реализовали облегченную архитектуру NLU (понимание естественного языка) как на фронтенде, так и на бэкенде.
- Последовательно разделяйте запросы пользователей на намерения и сущности.
- Намерения: CPU_STATUS, MEMORY_STATUS, DISK_STATUS, INCIDENT_QUERY, SERVER_STATUS и т. д.
- Сущности: тип_сервера, порог, временной_диапазон, серьезность и т. д.
2. Улучшена логика обработки запросов front-end-back-end.
- Добавлена функция анализа NLU, совместимая с бэкэндом, во фронтэнд
process_query.js
. - Улучшить структуру ответа API бэкэнда, чтобы явно предоставлять информацию о намерениях и сущностях фронтэнду.
- Мы улучшили обработку ошибок, чтобы обеспечить единообразную обработку ошибок во всех конечных точках API.
3. Улучшенная обработка контекста
- Используйте контекст разговора, чтобы давать более точные и контекстные ответы на последующие вопросы.
- Пример: задав вопрос о конкретном сервере, сохраните контекст, задав дополнительный вопрос, например: «Объясните почему?»
- Запомните типы метрик (ЦП, память и т. д.), упомянутые в предыдущих беседах, и используйте их в последующих вопросах.
4. Улучшенный опыт разработчика
- Разработка фронтенда упрощается за счет поддержания единообразной структуры ответов API.
- Добавлена логика обработки ошибок во все API для повышения стабильности.
- Улучшение удобства обслуживания за счет улучшения структуры внутреннего кода.
Планы по улучшению на будущее
- Структурирование файла контекста. Преобразование текущего контекста на основе текстового файла в формат JSON/YAML.
- Расширенные возможности NLU — добавлено распознавание большего количества намерений и сущностей
- Улучшения пользовательского интерфейса — визуальное отображение контекстно-зависимых функций
- Оптимизация производительности бэкэнда — повышение производительности обработки крупномасштабных данных метрик.
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Система анализа и мониторинга сервера на основе естественного языка, которая автоматически обрабатывает запросы пользователей о состоянии сервера и предоставляет подробные ответы с визуализацией.
- Ссылка на распространение
- Структура проекта
- Поток связи MCP
- Основные характеристики
- Технологический стек
- 🏗 Архитектура системы: Крупномасштабный агент ИИ против этого проекта (на основе MCP)
- 🤖 Метод разработки (на основе Vibe Coding)
- 📐 Руководство по разработке
- Руководство по разработке
- Установить и запустить
- Среда развертывания
- Планы дальнейшего развития
- Информация для разработчиков
- Лицензия
- Последние улучшения (версия v4.1.0)
- Планы по улучшению на будущее
Related MCP Servers
- -securityAlicense-qualityA JVM monitoring and control platform server based on Arthas that provides a Python interface for monitoring and analyzing Java processes with capabilities for thread analysis, memory monitoring, and performance diagnostics.Last updated -59PythonMIT License
- -securityAlicense-qualityA lightweight server that provides real-time system information including CPU, memory, disk, and GPU statistics for monitoring and diagnostic purposes.Last updated -PythonMIT License
- AsecurityAlicenseAqualityA server monitoring and inspection tool collection that provides remote utilities for checking network interfaces, service statuses, and firewall configurations on servers.Last updated -1930PythonMIT License
- -securityAlicense-qualityA file monitoring server that tracks filesystem events and provides real-time notifications to AI assistants, enabling them to automatically respond to file changes without manual updates.Last updated -14PythonMIT License