Skip to main content
Glama

MCP Autonomous Analyst

by MadMando

Автономный аналитик

🧠 Обзор

Автономный аналитик — это локальный агентный конвейер ИИ, который:

  • Анализирует табличные данные

  • Обнаруживает аномалии с помощью расстояния Махаланобиса

  • Использует локальный LLM (llama3.2:1b через Ollama) для создания интерпретационных резюме

  • Регистрирует результаты в ChromaDB для семантического вызова

  • Полностью организован через протокол контекста модели (MCP)


⚙️ Особенности

Компонент

Описание

Веб-интерфейс FastAPI

Удобная панель инструментов для синтетических или загруженных наборов данных

Оркестровка инструмента MCP

Каждый шаг процесса представлен как вызываемый инструмент MCP

Обнаружение аномалий

Обнаружение выбросов на основе расстояния Махаланобиса

Визуальный вывод

Сохраненная диаграмма рассеяния инлайеров и аномалий

Локальное обобщение LLM

Результаты, полученные с использованием

llama3.2:1b

через Ollama

Регистрация векторного хранилища

Резюме хранятся в ChromaDB для постоянной памяти.

Инструмент агентского планирования

Специальный инструмент LLM (

autonomous_plan

) определяет следующие шаги на основе контекста набора данных

Агентный поток

LLM + память + использование инструментов + автоматическое рассуждение + понимание контекста


🧪 Определены инструменты (через MCP)

Название инструмента

Описание

LLM используется

generate_data

Создание синтетических табличных данных (гауссовских + категориальных)

analyze_outliers

Маркируйте строки, используя расстояние Махаланобиса

plot_results

Сохраните график, визуализирующий инлайсеры и аномалии

summarize_results

Интерпретировать и объяснить распределение выбросов с помощью

llama3.2:1b

summarize_data_stats

Опишите тенденции набора данных с помощью

llama3.2:1b

log_results_to_vector_store

Сохраняйте сводки в ChromaDB для дальнейшего использования.

search_logs

Извлечение соответствующих прошлых сеансов с помощью векторного поиска (необязательное использование LLM)

⚠️

autonomous_plan

Запустите полный конвейер, используйте LLM для автоматической рекомендации следующих действий


🤖 Возможности агента

  • Автономность : выбор пути выполнения под руководством LLM с помощью autonomous_plan

  • Использование инструмента : Динамически вызывает зарегистрированные инструменты MCP через вывод LLM.

  • Рассуждение : формирует технические идеи на основе условий набора данных и анализа выбросов.

  • Память : сохраняет и восстанавливает знания с помощью векторного поиска ChromaDB.

  • LLM : Работает на Ollama с llama3.2:1b (температура = 0,1, детерминированная)


🚀 Начало работы

1. Клонирование и настройка

git clone https://github.com/MadMando/mcp-autonomous-analyst.git cd mcp-autonomous-analyst conda create -n mcp-agentic python=3.11 -y conda activate mcp-agentic pip install uv uv pip install -r requirements.txt

2. Запустите MCP-сервер.

mcp run server.py --transport streamable-http

3. Запустите веб-панель управления

uvicorn web:app --reload --port 8001

Затем посетите: http://localhost:8000


🌐 Поток панели инструментов

  • Шаг 1: Загрузите собственный набор данных или нажмите Generate Synthetic Data

  • Шаг 2: Система запускает обнаружение аномалий на feature_1 и feature_2

  • Шаг 3: Создается визуальный график выбросов.

  • Шаг 4: Резюме создаются с помощью LLM

  • Шаг 5: Результаты могут быть дополнительно записаны в хранилище векторов для последующего использования.


📁 Макет проекта

📦 autonomous-analyst/ ├── server.py # MCP server ├── web.py # FastAPI + MCP client (frontend logic) ├── tools/ │ ├── synthetic_data.py │ ├── outlier_detection.py │ ├── plotter.py │ ├── summarizer.py │ ├── vector_store.py ├── static/ # Saved plot ├── data/ # Uploaded or generated dataset ├── requirements.txt ├── .gitignore └── README.md

📚 Технологический стек

  • MCP SDK: mcp

  • Вывод LLM: Оллама, работающий llama3.2:1b

  • Сервер пользовательского интерфейса: FastAPI + Uvicorn

  • Память: векторная база данных ChromaDB

  • Данные: pandas , matplotlib , scikit-learn


✅ .gitignore Дополнения

__pycache__/ *.pyc *.pkl .env static/ data/

🙌 Благодарности

Этот проект не был бы возможен без невероятной работы сообщества open-source. Особая благодарность:

Инструмент/Библиотека

Цель

Репозиторий

🧠

Протокол контекста модели (MCP)

Оркестровка и исполнение агентских инструментов

modelcontextprotocol/python-sdk

💬

Оллама

Локальный механизм вывода LLM (

llama3.2:1b

)

оллама/оллама

🔍

ХромаДБ

Векторная база данных для регистрации и поиска

chroma-core/хрома

🌐

FastAPI

Интерактивный, быстрый веб-интерфейс

тианголо/фастапи

Ювикорн

Сервер ASGI, обеспечивающий работу бэкэнда FastAPI

кодировать/uvicorn

💡 Если вы используете этот проект, пожалуйста, рассмотрите возможность поставить отметку «звездой» или внести свой вклад в инструменты, которые делают это возможным.

Этот репозиторий был создан при содействии местного rag-llm с использованием llama3.2:1b

-
security - not tested
F
license - not found
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

Локальный агентный конвейер ИИ, который анализирует табличные данные, обнаруживает аномалии и генерирует интерпретационные сводки с использованием локальных LLM, организованных с помощью протокола контекста модели.

  1. 🧠 Обзор
    1. ⚙️ Особенности
    2. 🧪 Определены инструменты (через MCP)
    3. 🤖 Возможности агента
  2. 🚀 Начало работы
    1. 1. Клонирование и настройка
    2. 2. Запустите MCP-сервер.
    3. 3. Запустите веб-панель управления
  3. 🌐 Поток панели инструментов
    1. 📁 Макет проекта
      1. 📚 Технологический стек
        1. ✅ .gitignore Дополнения
          1. 🙌 Благодарности

            Related MCP Servers

            • -
              security
              F
              license
              -
              quality
              An agentic AI system that orchestrates multiple specialized AI tools to perform business analytics and knowledge retrieval, allowing users to analyze data and access business information through natural language queries.
              Last updated -
              3
            • -
              security
              F
              license
              -
              quality
              Intelligently analyzes codebases to enhance LLM prompts with relevant context, featuring adaptive context management and task detection to produce higher quality AI responses.
              Last updated -
            • -
              security
              A
              license
              -
              quality
              An AI-powered server that analyzes system log files to identify errors/warnings and recommend fixes using FastMCP, LangGraph ReAct agents, and Anthropic Claude.
              Last updated -
              1
              MIT License
            • -
              security
              A
              license
              -
              quality
              Provides AI coding assistants with context optimization tools including targeted file analysis, intelligent terminal command execution with LLM-powered output extraction, and web research capabilities. Helps reduce token usage by extracting only relevant information instead of processing entire files and command outputs.
              Last updated -
              5
              16
              45
              TypeScript
              MIT License

            View all related MCP servers

            MCP directory API

            We provide all the information about MCP servers via our MCP API.

            curl -X GET 'https://glama.ai/api/mcp/v1/servers/MadMando/mcp-autonomous-analyst'

            If you have feedback or need assistance with the MCP directory API, please join our Discord server