Skip to main content
Glama
skyasu2

OpenManager Vibe V4 MCP Server

by skyasu2

OpenManager Vibe V4

OpenManager Vibe V4 — это система аналитики и мониторинга сервера на основе естественного языка. Когда администратор задает вопрос о состоянии сервера простым языком, система автоматически анализирует его и выдает результаты.

Ссылка на распространение

Related MCP server: MCP System Info Server

Структура проекта

.
├── frontend/                # 프론트엔드 코드
│   ├── css/                 # 스타일시트 파일들
│   ├── public/              # 정적 자원 파일들
│   ├── index.html           # 메인 랜딩 페이지
│   ├── server_dashboard.html # 서버 모니터링 대시보드
│   ├── server_detail.html   # 서버 상세 정보 페이지
│   ├── agent.js             # 에이전트 스크립트
│   ├── ai_processor.js      # 자연어 처리 엔진
│   ├── data_processor.js    # 데이터 처리 로직
│   ├── dummy_data_generator.js # 더미 데이터 생성기
│   ├── fixed_dummy_data.js  # 고정 더미 데이터
│   ├── summary.js           # 데이터 요약 및 보고서 생성
│   └── config.js            # 설정 파일
│
└── mcp-lite-server/         # 백엔드 서버
    ├── context/             # 컨텍스트 문서 보관
    ├── server.js            # 백엔드 서버 코드
    └── package.json         # 백엔드 의존성 정의

Поток связи MCP

Интерфейс и сервер MCP Lite интегрированы следующим образом:

  1. Фронтенд : Пользователь вводит вопросы о состоянии сервера на естественном языке.

  2. Вызов API : Фронтенд отправляет вопрос и контекстную информацию в конечную точку /query сервера MCP.

  3. Внутренняя обработка : сервер MCP сопоставляет вопрос с файлом контекста и генерирует соответствующий ответ.

  4. Отображение результатов : ответ передается на интерфейс и отображается визуально для пользователя.

В демонстрационной среде :

  • Большая часть логики выполняется на внешнем интерфейсе, и используются виртуальные данные.

  • Сервер MCP выполняет второстепенную роль, предоставляя только простые функции обработки естественного языка.

  • В реальной среде сервер MCP можно расширить для связи реальных данных мониторинга с расширенным LLM.

Основные характеристики

  • Запросы на естественном языке : позволяет администраторам задавать вопросы о состоянии сервера и проблемах на повседневном языке.

  • Автоматический анализ : система анализирует вопрос и предоставляет список связанных серверов и причину проблемы.

  • Интуитивно понятная панель управления : визуально отображает состояние сервера и показатели производительности.

  • Подробный отчет : создание аналитического отчета, включая причину и решение проблемы.

  • Фильтрация данных : возможность фильтрации по времени, типу сервера и местоположению.

Технологический стек

Внешний интерфейс

  • HTML5/CSS3/JavaScript (ванильный)

  • Фреймворк пользовательского интерфейса Bootstrap

  • Chart.js (визуализация данных)

  • Font Awesome/Иконки Bootstrap (Иконки)

Бэкэнд

  • Node.js

  • Express.js

  • Система управления контекстом на основе файлов

🏗 Архитектура системы: Крупномасштабный агент ИИ против этого проекта (на основе MCP)

🧠 Реальная архитектура агента ИИ на основе LLM

  • Поток данных: Журнал мониторинга в реальном времени → Коллектор (Kafka/Fluentd и т. д.) → Механизм анализа

  • Обработка естественного языка:

    • Интеграция с LLM API (OpenAI, Claude и т. д.)

    • Бэкэнд на основе Python/Java

    • Включает расширенные возможности интерпретации запросов и понимания контекста

  • Механизм анализа:

    • Интеграция с временными рядами/поисковыми системами, такими как InfluxDB и Elasticsearch

    • Анализ шаблонов на основе событий, срабатывание сигнализации

  • Интеграция пользовательского интерфейса:

    • Полностью интегрированная панель управления

    • Разговорный интерфейс + изучение истории использования

⚙️ Этот проект (легкая демонстрационная система на базе MCP)

Этот проект содержит несколько уровней самостоятельно разработанной логики «ИИ-агента», обеспечивающей функциональность, подобную ИИ, без необходимости использования LLM (большой языковой модели). Каждый компонент выполняет определенную роль и работает вместе, пытаясь предоставить пользователям интеллектуальный серверный анализ и мониторинг.

  • Фронтенд: создан на чистом HTML/JS, развернут в Netlify. Большая часть сложной логики агента ИИ содержится здесь.

  • Сервер MCP (бэкэнд): на базе Node.js, развернут для рендеринга. Он в основном отвечает за простые функции вопросов и ответов и статистического анализа.

Многослойные компоненты «LLM-Free AI Agent»

  1. Простой сервер MCP (конечная точка /query в mcp-lite-server/server.js ):

    • Роль: Обеспечивает базовую функциональность поиска и ответа на запросы по ключевым словам на основе содержимого текстовых файлов в папке context/ .

    • Как это работает: отвечает, проверяя, содержится ли слово в запросе пользователя в определенной строке в файле контекста.

    • Ограничения: Простое сопоставление строк может привести к плохому пониманию контекста и возврату нерелевантной информации.

  2. Внутренний агент ИИ (конечная точка mcp-lite-server/ai_agent.js и /api/ai/query ):

    • Роль: обнаружение аномалий посредством статистического анализа (например, Z-оценки) данных показателей сервера и генерация простых, основанных на шаблонах ответов на естественном языке для определенных типов вопросов.

    • Как это работает: анализирует числовые данные для выявления статистических выбросов и использует предопределенные шаблоны ответов.

    • Ограничения: отвечает только на ограниченное количество сценариев и типов вопросов.

  3. Фронтенд-процессор ИИ ( frontend/ai_processor.js ):

    • Роль: Реализовать самую сложную логику агента без LLM в текущей системе. Отвечает за определение подробных шаблонов проблем на основе правил, анализ запросов пользователей на естественном языке (простой NLU), анализ причин и предложение решений, а также создание динамического содержимого отчетов.

    • Как это работает: анализирует данные сервера на основе правил и условий, определенных в problemPatterns , определяет цель вопроса пользователя с помощью analyzeQuery и предоставляет настраиваемую информацию с помощью различных функций generate...Response .

    • Особенности: Большая часть интеллектуальной логики реализована в коде JavaScript интерфейса.

Преимущества и ограничения этого подхода

  • заслуга:

    • Работа как ИИ без LLM (низкая стоимость/высокая эффективность)

    • Ответ можно расширить, просто добавив документы (для простых серверов MCP)

    • Низкие затраты на внедрение и обслуживание (отсутствие зависимости от внешнего API LLM и затрат на него)

    • Возможность установки правил, оптимизированных для определенных доменов (мониторинг сервера)

  • допуск:

    • Ограниченная способность интерпретации вопросов (отсутствие понимания контекста, ограниченная глубина понимания естественного языка)

    • Не подходит для крупномасштабного анализа в реальном времени.

    • Производительность зависит от сложности правил и шаблонов, и сложно гибко реагировать на новые типы проблем или вопросы (особенно это касается интерфейсных процессоров ИИ).

    • Поскольку основная логика сосредоточена во внешнем интерфейсе, могут возникнуть ограничения в масштабируемости и удобстве обслуживания.


🤖 Метод разработки (на основе Vibe Coding)

Этот проект был разработан путем ввода подсказок в инструмент на основе GPT и использования курсора для управления кодированием ИИ .

Поток фазы разработки

Шаг 1: Первоначальное планирование и определение функций (с использованием GPT)

  • Предложение по структуре проекта

  • Определение роли сервера MCP и метода ответа на основе контекста

  • Установка основного направления стека технологий и пользовательского интерфейса

Шаг 2: Реализация функций и интеграция с интерфейсом (с использованием курсора)

  • Конфигурация фронтального JS-кода

  • Обработка выборки запроса MCP

  • Отображение ответа Markdown

Шаг 3: Расширенный ответ и шаблон документа (совместная работа курсора и GPT)

  • контекст Расширение структуры ответа на несколько документов

  • Разработка шаблонов автоматических отчетов

  • Проектирование и ветвь обработки ответных документов по типу отказа


📐 Руководство по разработке

✅ Пользовательский интерфейс и дизайн

  • index.html и стили пользовательского интерфейса должны оставаться актуальными (рекомендуется сохранение 90% или более)

  • Разрешайте вносить изменения только в той мере, в которой они не нарушают пользовательский интерфейс.

✅ MCP-бэкэнд

  • Функциональность сервера можно свободно улучшать путем расширения и добавления контекстных структур.

  • Структура контекстного документа соответствует текстовому формату .txt или .md

  • При расширении API рекомендуется использовать структуру RESTful

Руководство по разработке

При работе над проектом следуйте этим рекомендациям:

Связанные с пользовательским интерфейсом и дизайном (на основе коммита ad03d5f)

  • Индексный файл и пользовательский интерфейс : текущий дизайн UI/UX должен быть тщательно сохранен.

    • index.html и видимые извне компоненты пользовательского интерфейса должны сохранить не менее 90% своих текущих стилей.

    • Не изменяйте дизайн интерфейса без крайней необходимости.

Разработка бэкэнда

  • Улучшения функций бэкэнда : улучшения и расширения функций на стороне сервера можно реализовать бесплатно.

    • Улучшенная логика обработки данных

    • Добавить и оптимизировать конечные точки API

    • Работа по повышению производительности и улучшению масштабируемости

Установить и запустить

Внешний интерфейс

cd frontend
# 정적 서버로 실행 (예: VS Code의 Live Server 또는 기타 정적 파일 서버)

Внутренний сервер

cd mcp-lite-server
npm install
node server.js

Среда развертывания

Планы дальнейшего развития

  1. Интеграция ИИ : Реальная обработка естественного языка Связь LLM

  2. Данные в реальном времени : интеграция с реальными системами мониторинга серверов (Prometheus, Zabbix и т. д.)

  3. Расширение визуализации : диверсификация графиков и диаграмм анализа данных

  4. Система оповещения : автоматическое оповещение и передача отчетов в случае сбоя

Информация для разработчиков

Этот проект был разработан с использованием Vibe Coding на основе различных моделей ИИ, таких как Claude, GPT и Gemini.

Лицензия

Данный проект был создан для внутренних целей разработки и для него не предусмотрена отдельная лицензия.

Последние улучшения (версия v4.1.0)

1. Улучшение и согласованность облегченной структуры NLU

  • Мы реализовали облегченную архитектуру NLU (понимание естественного языка) как на фронтенде, так и на бэкенде.

  • Последовательно разделяйте запросы пользователей на намерения и сущности.

  • Намерения: CPU_STATUS, MEMORY_STATUS, DISK_STATUS, INCIDENT_QUERY, SERVER_STATUS и т. д.

  • Сущности: тип_сервера, порог, временной_диапазон, серьезность и т. д.

2. Улучшена логика обработки запросов front-end-back-end.

  • Добавлена функция анализа NLU, совместимая с бэкэндом, во фронтэнд process_query.js .

  • Улучшить структуру ответа API бэкэнда, чтобы явно предоставлять информацию о намерениях и сущностях фронтэнду.

  • Мы улучшили обработку ошибок, чтобы обеспечить единообразную обработку ошибок во всех конечных точках API.

3. Улучшенная обработка контекста

  • Используйте контекст разговора, чтобы давать более точные и контекстные ответы на последующие вопросы.

  • Пример: задав вопрос о конкретном сервере, сохраните контекст, задав дополнительный вопрос, например: «Объясните почему?»

  • Запомните типы метрик (ЦП, память и т. д.), упомянутые в предыдущих беседах, и используйте их в последующих вопросах.

4. Улучшенный опыт разработчика

  • Разработка фронтенда упрощается за счет поддержания единообразной структуры ответов API.

  • Добавлена логика обработки ошибок во все API для повышения стабильности.

  • Улучшение удобства обслуживания за счет улучшения структуры внутреннего кода.

Планы по улучшению на будущее

  1. Структурирование файла контекста. Преобразование текущего контекста на основе текстового файла в формат JSON/YAML.

  2. Расширенные возможности NLU — добавлено распознавание большего количества намерений и сущностей

  3. Улучшения пользовательского интерфейса — визуальное отображение контекстно-зависимых функций

  4. Оптимизация производительности бэкэнда — повышение производительности обработки крупномасштабных данных метрик.

F
license - not found
-
quality - not tested
-
maintenance - not tested

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/skyasu2/openmanager-vibe-v4'

If you have feedback or need assistance with the MCP directory API, please join our Discord server