Автономный аналитик
🧠 Обзор
Автономный аналитик — это локальный агентный конвейер ИИ, который:
Анализирует табличные данные
Обнаруживает аномалии с помощью расстояния Махаланобиса
Использует локальный LLM (llama3.2:1b через Ollama) для создания интерпретационных резюме
Регистрирует результаты в ChromaDB для семантического вызова
Полностью организован через протокол контекста модели (MCP)
⚙️ Особенности
Компонент | Описание |
Веб-интерфейс FastAPI | Удобная панель инструментов для синтетических или загруженных наборов данных |
Оркестровка инструмента MCP | Каждый шаг процесса представлен как вызываемый инструмент MCP |
Обнаружение аномалий | Обнаружение выбросов на основе расстояния Махаланобиса |
Визуальный вывод | Сохраненная диаграмма рассеяния инлайеров и аномалий |
Локальное обобщение LLM | Результаты, полученные с использованием
через Ollama |
Регистрация векторного хранилища | Резюме хранятся в ChromaDB для постоянной памяти. |
Инструмент агентского планирования | Специальный инструмент LLM (
) определяет следующие шаги на основе контекста набора данных |
Агентный поток | LLM + память + использование инструментов + автоматическое рассуждение + понимание контекста |
🧪 Определены инструменты (через MCP)
Название инструмента | Описание | LLM используется |
| Создание синтетических табличных данных (гауссовских + категориальных) | ❌ |
| Маркируйте строки, используя расстояние Махаланобиса | ❌ |
| Сохраните график, визуализирующий инлайсеры и аномалии | ❌ |
| Интерпретировать и объяснить распределение выбросов с помощью
| ✅ |
| Опишите тенденции набора данных с помощью
| ✅ |
| Сохраняйте сводки в ChromaDB для дальнейшего использования. | ❌ |
| Извлечение соответствующих прошлых сеансов с помощью векторного поиска (необязательное использование LLM) | ⚠️ |
| Запустите полный конвейер, используйте LLM для автоматической рекомендации следующих действий | ✅ |
🤖 Возможности агента
Автономность : выбор пути выполнения под руководством LLM с помощью
autonomous_planИспользование инструмента : Динамически вызывает зарегистрированные инструменты MCP через вывод LLM.
Рассуждение : формирует технические идеи на основе условий набора данных и анализа выбросов.
Память : сохраняет и восстанавливает знания с помощью векторного поиска ChromaDB.
LLM : Работает на Ollama с
llama3.2:1b(температура = 0,1, детерминированная)
Related MCP server: MCP Prompt Enhancer
🚀 Начало работы
1. Клонирование и настройка
2. Запустите MCP-сервер.
3. Запустите веб-панель управления
Затем посетите: http://localhost:8000
🌐 Поток панели инструментов
Шаг 1: Загрузите собственный набор данных или нажмите
Generate Synthetic DataШаг 2: Система запускает обнаружение аномалий на
feature_1иfeature_2Шаг 3: Создается визуальный график выбросов.
Шаг 4: Резюме создаются с помощью LLM
Шаг 5: Результаты могут быть дополнительно записаны в хранилище векторов для последующего использования.
📁 Макет проекта
📚 Технологический стек
MCP SDK:
mcpВывод LLM: Оллама, работающий
llama3.2:1bСервер пользовательского интерфейса: FastAPI + Uvicorn
Память: векторная база данных ChromaDB
Данные:
pandas,matplotlib,scikit-learn
✅ .gitignore Дополнения
🙌 Благодарности
Этот проект не был бы возможен без невероятной работы сообщества open-source. Особая благодарность:
Инструмент/Библиотека | Цель | Репозиторий |
🧠 Протокол контекста модели (MCP) | Оркестровка и исполнение агентских инструментов | |
💬 Оллама | Локальный механизм вывода LLM (
) | |
🔍 ХромаДБ | Векторная база данных для регистрации и поиска | |
🌐 FastAPI | Интерактивный, быстрый веб-интерфейс | |
⚡ Ювикорн | Сервер ASGI, обеспечивающий работу бэкэнда FastAPI |
💡 Если вы используете этот проект, пожалуйста, рассмотрите возможность поставить отметку «звездой» или внести свой вклад в инструменты, которые делают это возможным.
Этот репозиторий был создан при содействии местного rag-llm с использованием llama3.2:1b