Автономный аналитик
🧠 Обзор
Автономный аналитик — это локальный агентный конвейер ИИ, который:
- Анализирует табличные данные
- Обнаруживает аномалии с помощью расстояния Махаланобиса
- Использует локальный LLM (llama3.2:1b через Ollama) для создания интерпретационных резюме
- Регистрирует результаты в ChromaDB для семантического вызова
- Полностью организован через протокол контекста модели (MCP)
⚙️ Особенности
Компонент | Описание |
---|---|
Веб-интерфейс FastAPI | Удобная панель инструментов для синтетических или загруженных наборов данных |
Оркестровка инструмента MCP | Каждый шаг процесса представлен как вызываемый инструмент MCP |
Обнаружение аномалий | Обнаружение выбросов на основе расстояния Махаланобиса |
Визуальный вывод | Сохраненная диаграмма рассеяния инлайеров и аномалий |
Локальное обобщение LLM | Результаты, полученные с использованием llama3.2:1b через Ollama |
Регистрация векторного хранилища | Резюме хранятся в ChromaDB для постоянной памяти. |
Инструмент агентского планирования | Специальный инструмент LLM ( autonomous_plan ) определяет следующие шаги на основе контекста набора данных |
Агентный поток | LLM + память + использование инструментов + автоматическое рассуждение + понимание контекста |
🧪 Определены инструменты (через MCP)
Название инструмента | Описание | LLM используется |
---|---|---|
generate_data | Создание синтетических табличных данных (гауссовских + категориальных) | ❌ |
analyze_outliers | Маркируйте строки, используя расстояние Махаланобиса | ❌ |
plot_results | Сохраните график, визуализирующий инлайсеры и аномалии | ❌ |
summarize_results | Интерпретировать и объяснить распределение выбросов с помощью llama3.2:1b | ✅ |
summarize_data_stats | Опишите тенденции набора данных с помощью llama3.2:1b | ✅ |
log_results_to_vector_store | Сохраняйте сводки в ChromaDB для дальнейшего использования. | ❌ |
search_logs | Извлечение соответствующих прошлых сеансов с помощью векторного поиска (необязательное использование LLM) | ⚠️ |
autonomous_plan | Запустите полный конвейер, используйте LLM для автоматической рекомендации следующих действий | ✅ |
🤖 Возможности агента
- Автономность : выбор пути выполнения под руководством LLM с помощью
autonomous_plan
- Использование инструмента : Динамически вызывает зарегистрированные инструменты MCP через вывод LLM.
- Рассуждение : формирует технические идеи на основе условий набора данных и анализа выбросов.
- Память : сохраняет и восстанавливает знания с помощью векторного поиска ChromaDB.
- LLM : Работает на Ollama с
llama3.2:1b
(температура = 0,1, детерминированная)
🚀 Начало работы
1. Клонирование и настройка
2. Запустите MCP-сервер.
3. Запустите веб-панель управления
Затем посетите: http://localhost:8000
🌐 Поток панели инструментов
- Шаг 1: Загрузите собственный набор данных или нажмите
Generate Synthetic Data
- Шаг 2: Система запускает обнаружение аномалий на
feature_1
иfeature_2
- Шаг 3: Создается визуальный график выбросов.
- Шаг 4: Резюме создаются с помощью LLM
- Шаг 5: Результаты могут быть дополнительно записаны в хранилище векторов для последующего использования.
📁 Макет проекта
📚 Технологический стек
- MCP SDK:
mcp
- Вывод LLM: Оллама, работающий
llama3.2:1b
- Сервер пользовательского интерфейса: FastAPI + Uvicorn
- Память: векторная база данных ChromaDB
- Данные:
pandas
,matplotlib
,scikit-learn
✅ .gitignore Дополнения
🙌 Благодарности
Этот проект не был бы возможен без невероятной работы сообщества open-source. Особая благодарность:
Инструмент/Библиотека | Цель | Репозиторий |
---|---|---|
🧠 Протокол контекста модели (MCP) | Оркестровка и исполнение агентских инструментов | modelcontextprotocol/python-sdk |
💬 Оллама | Локальный механизм вывода LLM ( llama3.2:1b ) | оллама/оллама |
🔍 ХромаДБ | Векторная база данных для регистрации и поиска | chroma-core/хрома |
🌐 FastAPI | Интерактивный, быстрый веб-интерфейс | тианголо/фастапи |
⚡ Ювикорн | Сервер ASGI, обеспечивающий работу бэкэнда FastAPI | кодировать/uvicorn |
💡 Если вы используете этот проект, пожалуйста, рассмотрите возможность поставить отметку «звездой» или внести свой вклад в инструменты, которые делают это возможным.
Этот репозиторий был создан при содействии местного rag-llm с использованием llama3.2:1b
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
Локальный агентный конвейер ИИ, который анализирует табличные данные, обнаруживает аномалии и генерирует интерпретационные сводки с использованием локальных LLM, организованных с помощью протокола контекста модели.
Related MCP Servers
- AsecurityAlicenseAqualityAgentic tool that looks for statistical variations in conversation structure and logs unusual events to a SQLite database. Built using the Model Context Protocol (MCP), this system is designed to be used with Claude Desktop or other MCP-compatible clients.Last updated -84PythonMIT License
- -securityFlicense-qualityEnables AI models to interact with Linear for issue tracking and project management through the Model Context Protocol, supporting capabilities like creating issues, searching, managing sprints, and bulk updating statuses.Last updated -5TypeScript
- AsecurityAlicenseAqualityUnleashes LLM-powered agents to autonomously execute and debug web apps directly in your code editor, with features like webapp navigation, network traffic capture, and console error collection.Last updated -11,128PythonApache 2.0
- -securityFlicense-qualityA server that enables browser-based local LLM inference using Playwright to automate interactions with @mlc-ai/web-llm, supporting text generation, chat sessions, model switching, and status monitoring.Last updated -1TypeScript