Skip to main content
Glama

Автономный аналитик

🧠 Обзор

Автономный аналитик — это локальный агентный конвейер ИИ, который:

  • Анализирует табличные данные

  • Обнаруживает аномалии с помощью расстояния Махаланобиса

  • Использует локальный LLM (llama3.2:1b через Ollama) для создания интерпретационных резюме

  • Регистрирует результаты в ChromaDB для семантического вызова

  • Полностью организован через протокол контекста модели (MCP)


⚙️ Особенности

Компонент

Описание

Веб-интерфейс FastAPI

Удобная панель инструментов для синтетических или загруженных наборов данных

Оркестровка инструмента MCP

Каждый шаг процесса представлен как вызываемый инструмент MCP

Обнаружение аномалий

Обнаружение выбросов на основе расстояния Махаланобиса

Визуальный вывод

Сохраненная диаграмма рассеяния инлайеров и аномалий

Локальное обобщение LLM

Результаты, полученные с использованием

llama3.2:1b

через Ollama

Регистрация векторного хранилища

Резюме хранятся в ChromaDB для постоянной памяти.

Инструмент агентского планирования

Специальный инструмент LLM (

autonomous_plan

) определяет следующие шаги на основе контекста набора данных

Агентный поток

LLM + память + использование инструментов + автоматическое рассуждение + понимание контекста


🧪 Определены инструменты (через MCP)

Название инструмента

Описание

LLM используется

generate_data

Создание синтетических табличных данных (гауссовских + категориальных)

analyze_outliers

Маркируйте строки, используя расстояние Махаланобиса

plot_results

Сохраните график, визуализирующий инлайсеры и аномалии

summarize_results

Интерпретировать и объяснить распределение выбросов с помощью

llama3.2:1b

summarize_data_stats

Опишите тенденции набора данных с помощью

llama3.2:1b

log_results_to_vector_store

Сохраняйте сводки в ChromaDB для дальнейшего использования.

search_logs

Извлечение соответствующих прошлых сеансов с помощью векторного поиска (необязательное использование LLM)

⚠️

autonomous_plan

Запустите полный конвейер, используйте LLM для автоматической рекомендации следующих действий


🤖 Возможности агента

  • Автономность : выбор пути выполнения под руководством LLM с помощью autonomous_plan

  • Использование инструмента : Динамически вызывает зарегистрированные инструменты MCP через вывод LLM.

  • Рассуждение : формирует технические идеи на основе условий набора данных и анализа выбросов.

  • Память : сохраняет и восстанавливает знания с помощью векторного поиска ChromaDB.

  • LLM : Работает на Ollama с llama3.2:1b (температура = 0,1, детерминированная)


Related MCP server: MCP Prompt Enhancer

🚀 Начало работы

1. Клонирование и настройка

git clone https://github.com/MadMando/mcp-autonomous-analyst.git cd mcp-autonomous-analyst conda create -n mcp-agentic python=3.11 -y conda activate mcp-agentic pip install uv uv pip install -r requirements.txt

2. Запустите MCP-сервер.

mcp run server.py --transport streamable-http

3. Запустите веб-панель управления

uvicorn web:app --reload --port 8001

Затем посетите: http://localhost:8000


🌐 Поток панели инструментов

  • Шаг 1: Загрузите собственный набор данных или нажмите Generate Synthetic Data

  • Шаг 2: Система запускает обнаружение аномалий на feature_1 и feature_2

  • Шаг 3: Создается визуальный график выбросов.

  • Шаг 4: Резюме создаются с помощью LLM

  • Шаг 5: Результаты могут быть дополнительно записаны в хранилище векторов для последующего использования.


📁 Макет проекта

📦 autonomous-analyst/ ├── server.py # MCP server ├── web.py # FastAPI + MCP client (frontend logic) ├── tools/ │ ├── synthetic_data.py │ ├── outlier_detection.py │ ├── plotter.py │ ├── summarizer.py │ ├── vector_store.py ├── static/ # Saved plot ├── data/ # Uploaded or generated dataset ├── requirements.txt ├── .gitignore └── README.md

📚 Технологический стек

  • MCP SDK: mcp

  • Вывод LLM: Оллама, работающий llama3.2:1b

  • Сервер пользовательского интерфейса: FastAPI + Uvicorn

  • Память: векторная база данных ChromaDB

  • Данные: pandas , matplotlib , scikit-learn


✅ .gitignore Дополнения

__pycache__/ *.pyc *.pkl .env static/ data/

🙌 Благодарности

Этот проект не был бы возможен без невероятной работы сообщества open-source. Особая благодарность:

Инструмент/Библиотека

Цель

Репозиторий

🧠

Протокол контекста модели (MCP)

Оркестровка и исполнение агентских инструментов

modelcontextprotocol/python-sdk

💬

Оллама

Локальный механизм вывода LLM (

llama3.2:1b

)

оллама/оллама

🔍

ХромаДБ

Векторная база данных для регистрации и поиска

chroma-core/хрома

🌐

FastAPI

Интерактивный, быстрый веб-интерфейс

тианголо/фастапи

Ювикорн

Сервер ASGI, обеспечивающий работу бэкэнда FastAPI

кодировать/uvicorn

💡 Если вы используете этот проект, пожалуйста, рассмотрите возможность поставить отметку «звездой» или внести свой вклад в инструменты, которые делают это возможным.

Этот репозиторий был создан при содействии местного rag-llm с использованием llama3.2:1b

-
security - not tested
F
license - not found
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/MadMando/mcp-autonomous-analyst'

If you have feedback or need assistance with the MCP directory API, please join our Discord server