Автономный аналитик
🧠 Обзор
Автономный аналитик — это локальный агентный конвейер ИИ, который:
Анализирует табличные данные
Обнаруживает аномалии с помощью расстояния Махаланобиса
Использует локальный LLM (llama3.2:1b через Ollama) для создания интерпретационных резюме
Регистрирует результаты в ChromaDB для семантического вызова
Полностью организован через протокол контекста модели (MCP)
⚙️ Особенности
Компонент | Описание |
Веб-интерфейс FastAPI | Удобная панель инструментов для синтетических или загруженных наборов данных |
Оркестровка инструмента MCP | Каждый шаг процесса представлен как вызываемый инструмент MCP |
Обнаружение аномалий | Обнаружение выбросов на основе расстояния Махаланобиса |
Визуальный вывод | Сохраненная диаграмма рассеяния инлайеров и аномалий |
Локальное обобщение LLM | Результаты, полученные с использованием
через Ollama |
Регистрация векторного хранилища | Резюме хранятся в ChromaDB для постоянной памяти. |
Инструмент агентского планирования | Специальный инструмент LLM (
) определяет следующие шаги на основе контекста набора данных |
Агентный поток | LLM + память + использование инструментов + автоматическое рассуждение + понимание контекста |
🧪 Определены инструменты (через MCP)
Название инструмента | Описание | LLM используется |
| Создание синтетических табличных данных (гауссовских + категориальных) | ❌ |
| Маркируйте строки, используя расстояние Махаланобиса | ❌ |
| Сохраните график, визуализирующий инлайсеры и аномалии | ❌ |
| Интерпретировать и объяснить распределение выбросов с помощью
| ✅ |
| Опишите тенденции набора данных с помощью
| ✅ |
| Сохраняйте сводки в ChromaDB для дальнейшего использования. | ❌ |
| Извлечение соответствующих прошлых сеансов с помощью векторного поиска (необязательное использование LLM) | ⚠️ |
| Запустите полный конвейер, используйте LLM для автоматической рекомендации следующих действий | ✅ |
🤖 Возможности агента
Автономность : выбор пути выполнения под руководством LLM с помощью
autonomous_plan
Использование инструмента : Динамически вызывает зарегистрированные инструменты MCP через вывод LLM.
Рассуждение : формирует технические идеи на основе условий набора данных и анализа выбросов.
Память : сохраняет и восстанавливает знания с помощью векторного поиска ChromaDB.
LLM : Работает на Ollama с
llama3.2:1b
(температура = 0,1, детерминированная)
🚀 Начало работы
1. Клонирование и настройка
2. Запустите MCP-сервер.
3. Запустите веб-панель управления
Затем посетите: http://localhost:8000
🌐 Поток панели инструментов
Шаг 1: Загрузите собственный набор данных или нажмите
Generate Synthetic Data
Шаг 2: Система запускает обнаружение аномалий на
feature_1
иfeature_2
Шаг 3: Создается визуальный график выбросов.
Шаг 4: Резюме создаются с помощью LLM
Шаг 5: Результаты могут быть дополнительно записаны в хранилище векторов для последующего использования.
📁 Макет проекта
📚 Технологический стек
MCP SDK:
mcp
Вывод LLM: Оллама, работающий
llama3.2:1b
Сервер пользовательского интерфейса: FastAPI + Uvicorn
Память: векторная база данных ChromaDB
Данные:
pandas
,matplotlib
,scikit-learn
✅ .gitignore Дополнения
🙌 Благодарности
Этот проект не был бы возможен без невероятной работы сообщества open-source. Особая благодарность:
Инструмент/Библиотека | Цель | Репозиторий |
🧠 Протокол контекста модели (MCP) | Оркестровка и исполнение агентских инструментов | |
💬 Оллама | Локальный механизм вывода LLM (
) | |
🔍 ХромаДБ | Векторная база данных для регистрации и поиска | |
🌐 FastAPI | Интерактивный, быстрый веб-интерфейс | |
⚡ Ювикорн | Сервер ASGI, обеспечивающий работу бэкэнда FastAPI |
💡 Если вы используете этот проект, пожалуйста, рассмотрите возможность поставить отметку «звездой» или внести свой вклад в инструменты, которые делают это возможным.
Этот репозиторий был создан при содействии местного rag-llm с использованием llama3.2:1b
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
Локальный агентный конвейер ИИ, который анализирует табличные данные, обнаруживает аномалии и генерирует интерпретационные сводки с использованием локальных LLM, организованных с помощью протокола контекста модели.
Related MCP Servers
- -securityFlicense-qualityAn agentic AI system that orchestrates multiple specialized AI tools to perform business analytics and knowledge retrieval, allowing users to analyze data and access business information through natural language queries.Last updated -3
- -securityFlicense-qualityIntelligently analyzes codebases to enhance LLM prompts with relevant context, featuring adaptive context management and task detection to produce higher quality AI responses.Last updated -
- -securityAlicense-qualityAn AI-powered server that analyzes system log files to identify errors/warnings and recommend fixes using FastMCP, LangGraph ReAct agents, and Anthropic Claude.Last updated -1MIT License
- -securityAlicense-qualityProvides AI coding assistants with context optimization tools including targeted file analysis, intelligent terminal command execution with LLM-powered output extraction, and web research capabilities. Helps reduce token usage by extracting only relevant information instead of processing entire files and command outputs.Last updated -51645TypeScriptMIT License