Автономный аналитик
🧠 Обзор
Автономный аналитик — это локальный агентный конвейер ИИ, который:
- Анализирует табличные данные
- Обнаруживает аномалии с помощью расстояния Махаланобиса
- Использует локальный LLM (llama3.2:1b через Ollama) для создания интерпретационных резюме
- Регистрирует результаты в ChromaDB для семантического вызова
- Полностью организован через протокол контекста модели (MCP)
⚙️ Особенности
Компонент | Описание |
---|---|
Веб-интерфейс FastAPI | Удобная панель инструментов для синтетических или загруженных наборов данных |
Оркестровка инструмента MCP | Каждый шаг процесса представлен как вызываемый инструмент MCP |
Обнаружение аномалий | Обнаружение выбросов на основе расстояния Махаланобиса |
Визуальный вывод | Сохраненная диаграмма рассеяния инлайеров и аномалий |
Локальное обобщение LLM | Результаты, полученные с использованием llama3.2:1b через Ollama |
Регистрация векторного хранилища | Резюме хранятся в ChromaDB для постоянной памяти. |
Инструмент агентского планирования | Специальный инструмент LLM ( autonomous_plan ) определяет следующие шаги на основе контекста набора данных |
Агентный поток | LLM + память + использование инструментов + автоматическое рассуждение + понимание контекста |
🧪 Определены инструменты (через MCP)
Название инструмента | Описание | LLM используется |
---|---|---|
generate_data | Создание синтетических табличных данных (гауссовских + категориальных) | ❌ |
analyze_outliers | Маркируйте строки, используя расстояние Махаланобиса | ❌ |
plot_results | Сохраните график, визуализирующий инлайсеры и аномалии | ❌ |
summarize_results | Интерпретировать и объяснить распределение выбросов с помощью llama3.2:1b | ✅ |
summarize_data_stats | Опишите тенденции набора данных с помощью llama3.2:1b | ✅ |
log_results_to_vector_store | Сохраняйте сводки в ChromaDB для дальнейшего использования. | ❌ |
search_logs | Извлечение соответствующих прошлых сеансов с помощью векторного поиска (необязательное использование LLM) | ⚠️ |
autonomous_plan | Запустите полный конвейер, используйте LLM для автоматической рекомендации следующих действий | ✅ |
🤖 Возможности агента
- Автономность : выбор пути выполнения под руководством LLM с помощью
autonomous_plan
- Использование инструмента : Динамически вызывает зарегистрированные инструменты MCP через вывод LLM.
- Рассуждение : формирует технические идеи на основе условий набора данных и анализа выбросов.
- Память : сохраняет и восстанавливает знания с помощью векторного поиска ChromaDB.
- LLM : Работает на Ollama с
llama3.2:1b
(температура = 0,1, детерминированная)
🚀 Начало работы
1. Клонирование и настройка
2. Запустите MCP-сервер.
3. Запустите веб-панель управления
Затем посетите: http://localhost:8000
🌐 Поток панели инструментов
- Шаг 1: Загрузите собственный набор данных или нажмите
Generate Synthetic Data
- Шаг 2: Система запускает обнаружение аномалий на
feature_1
иfeature_2
- Шаг 3: Создается визуальный график выбросов.
- Шаг 4: Резюме создаются с помощью LLM
- Шаг 5: Результаты могут быть дополнительно записаны в хранилище векторов для последующего использования.
📁 Макет проекта
📚 Технологический стек
- MCP SDK:
mcp
- Вывод LLM: Оллама, работающий
llama3.2:1b
- Сервер пользовательского интерфейса: FastAPI + Uvicorn
- Память: векторная база данных ChromaDB
- Данные:
pandas
,matplotlib
,scikit-learn
✅ .gitignore Дополнения
🙌 Благодарности
Этот проект не был бы возможен без невероятной работы сообщества open-source. Особая благодарность:
Инструмент/Библиотека | Цель | Репозиторий |
---|---|---|
🧠 Протокол контекста модели (MCP) | Оркестровка и исполнение агентских инструментов | modelcontextprotocol/python-sdk |
💬 Оллама | Локальный механизм вывода LLM ( llama3.2:1b ) | оллама/оллама |
🔍 ХромаДБ | Векторная база данных для регистрации и поиска | chroma-core/хрома |
🌐 FastAPI | Интерактивный, быстрый веб-интерфейс | тианголо/фастапи |
⚡ Ювикорн | Сервер ASGI, обеспечивающий работу бэкэнда FastAPI | кодировать/uvicorn |
💡 Если вы используете этот проект, пожалуйста, рассмотрите возможность поставить отметку «звездой» или внести свой вклад в инструменты, которые делают это возможным.
Этот репозиторий был создан при содействии местного rag-llm с использованием llama3.2:1b
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
Локальный агентный конвейер ИИ, который анализирует табличные данные, обнаруживает аномалии и генерирует интерпретационные сводки с использованием локальных LLM, организованных с помощью протокола контекста модели.
Related MCP Servers
- -securityFlicense-qualityFacilitates enhanced interaction with large language models (LLMs) by providing intelligent context management, tool integration, and multi-provider AI model coordination for efficient AI-driven workflows.Last updated -Python
- -securityAlicense-qualityA Model Context Protocol server enabling AI agents to access and manipulate ServiceNow data through natural language interactions, allowing users to search for records, update them, and manage scripts.Last updated -9PythonMIT License
- -securityAlicense-qualityAn MCP server implementation that integrates AI assistants with Langfuse workspaces, allowing models to query LLM metrics by time range.Last updated -9JavaScriptApache 2.0
- -security-license-qualityConnect your AI models to your favorite SurrealDB database, and let the LLMs do all your work for you.Last updated -3JavaScript