Skip to main content
Glama

MCP Autonomous Analyst

by MadMando

Автономный аналитик

🧠 Обзор

Автономный аналитик — это локальный агентный конвейер ИИ, который:

  • Анализирует табличные данные
  • Обнаруживает аномалии с помощью расстояния Махаланобиса
  • Использует локальный LLM (llama3.2:1b через Ollama) для создания интерпретационных резюме
  • Регистрирует результаты в ChromaDB для семантического вызова
  • Полностью организован через протокол контекста модели (MCP)

⚙️ Особенности

КомпонентОписание
Веб-интерфейс FastAPIУдобная панель инструментов для синтетических или загруженных наборов данных
Оркестровка инструмента MCPКаждый шаг процесса представлен как вызываемый инструмент MCP
Обнаружение аномалийОбнаружение выбросов на основе расстояния Махаланобиса
Визуальный выводСохраненная диаграмма рассеяния инлайеров и аномалий
Локальное обобщение LLMРезультаты, полученные с использованием llama3.2:1b через Ollama
Регистрация векторного хранилищаРезюме хранятся в ChromaDB для постоянной памяти.
Инструмент агентского планированияСпециальный инструмент LLM ( autonomous_plan ) определяет следующие шаги на основе контекста набора данных
Агентный потокLLM + память + использование инструментов + автоматическое рассуждение + понимание контекста

🧪 Определены инструменты (через MCP)

Название инструментаОписаниеLLM используется
generate_dataСоздание синтетических табличных данных (гауссовских + категориальных)
analyze_outliersМаркируйте строки, используя расстояние Махаланобиса
plot_resultsСохраните график, визуализирующий инлайсеры и аномалии
summarize_resultsИнтерпретировать и объяснить распределение выбросов с помощью llama3.2:1b
summarize_data_statsОпишите тенденции набора данных с помощью llama3.2:1b
log_results_to_vector_storeСохраняйте сводки в ChromaDB для дальнейшего использования.
search_logsИзвлечение соответствующих прошлых сеансов с помощью векторного поиска (необязательное использование LLM)⚠️
autonomous_planЗапустите полный конвейер, используйте LLM для автоматической рекомендации следующих действий

🤖 Возможности агента

  • Автономность : выбор пути выполнения под руководством LLM с помощью autonomous_plan
  • Использование инструмента : Динамически вызывает зарегистрированные инструменты MCP через вывод LLM.
  • Рассуждение : формирует технические идеи на основе условий набора данных и анализа выбросов.
  • Память : сохраняет и восстанавливает знания с помощью векторного поиска ChromaDB.
  • LLM : Работает на Ollama с llama3.2:1b (температура = 0,1, детерминированная)

🚀 Начало работы

1. Клонирование и настройка

git clone https://github.com/MadMando/mcp-autonomous-analyst.git cd mcp-autonomous-analyst conda create -n mcp-agentic python=3.11 -y conda activate mcp-agentic pip install uv uv pip install -r requirements.txt

2. Запустите MCP-сервер.

mcp run server.py --transport streamable-http

3. Запустите веб-панель управления

uvicorn web:app --reload --port 8001

Затем посетите: http://localhost:8000


🌐 Поток панели инструментов

  • Шаг 1: Загрузите собственный набор данных или нажмите Generate Synthetic Data
  • Шаг 2: Система запускает обнаружение аномалий на feature_1 и feature_2
  • Шаг 3: Создается визуальный график выбросов.
  • Шаг 4: Резюме создаются с помощью LLM
  • Шаг 5: Результаты могут быть дополнительно записаны в хранилище векторов для последующего использования.

📁 Макет проекта

📦 autonomous-analyst/ ├── server.py # MCP server ├── web.py # FastAPI + MCP client (frontend logic) ├── tools/ │ ├── synthetic_data.py │ ├── outlier_detection.py │ ├── plotter.py │ ├── summarizer.py │ ├── vector_store.py ├── static/ # Saved plot ├── data/ # Uploaded or generated dataset ├── requirements.txt ├── .gitignore └── README.md

📚 Технологический стек

  • MCP SDK: mcp
  • Вывод LLM: Оллама, работающий llama3.2:1b
  • Сервер пользовательского интерфейса: FastAPI + Uvicorn
  • Память: векторная база данных ChromaDB
  • Данные: pandas , matplotlib , scikit-learn

✅ .gitignore Дополнения

__pycache__/ *.pyc *.pkl .env static/ data/

🙌 Благодарности

Этот проект не был бы возможен без невероятной работы сообщества open-source. Особая благодарность:

Инструмент/БиблиотекаЦельРепозиторий
🧠 Протокол контекста модели (MCP)Оркестровка и исполнение агентских инструментовmodelcontextprotocol/python-sdk
💬 ОлламаЛокальный механизм вывода LLM ( llama3.2:1b )оллама/оллама
🔍 ХромаДБВекторная база данных для регистрации и поискаchroma-core/хрома
🌐 FastAPIИнтерактивный, быстрый веб-интерфейстианголо/фастапи
ЮвикорнСервер ASGI, обеспечивающий работу бэкэнда FastAPIкодировать/uvicorn

💡 Если вы используете этот проект, пожалуйста, рассмотрите возможность поставить отметку «звездой» или внести свой вклад в инструменты, которые делают это возможным.

Этот репозиторий был создан при содействии местного rag-llm с использованием llama3.2:1b

-
security - not tested
F
license - not found
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

Локальный агентный конвейер ИИ, который анализирует табличные данные, обнаруживает аномалии и генерирует интерпретационные сводки с использованием локальных LLM, организованных с помощью протокола контекста модели.

  1. 🧠 Обзор
    1. ⚙️ Особенности
    2. 🧪 Определены инструменты (через MCP)
    3. 🤖 Возможности агента
  2. 🚀 Начало работы
    1. 1. Клонирование и настройка
    2. 2. Запустите MCP-сервер.
    3. 3. Запустите веб-панель управления
  3. 🌐 Поток панели инструментов
    1. 📁 Макет проекта
      1. 📚 Технологический стек
        1. ✅ .gitignore Дополнения
          1. 🙌 Благодарности

            Related MCP Servers

            • A
              security
              A
              license
              A
              quality
              Agentic tool that looks for statistical variations in conversation structure and logs unusual events to a SQLite database. Built using the Model Context Protocol (MCP), this system is designed to be used with Claude Desktop or other MCP-compatible clients.
              Last updated -
              8
              4
              Python
              MIT License
              • Apple
              • Linux
            • -
              security
              F
              license
              -
              quality
              Enables AI models to interact with Linear for issue tracking and project management through the Model Context Protocol, supporting capabilities like creating issues, searching, managing sprints, and bulk updating statuses.
              Last updated -
              5
              TypeScript
            • A
              security
              A
              license
              A
              quality
              Unleashes LLM-powered agents to autonomously execute and debug web apps directly in your code editor, with features like webapp navigation, network traffic capture, and console error collection.
              Last updated -
              1
              1,128
              Python
              Apache 2.0
              • Apple
              • Linux
            • -
              security
              F
              license
              -
              quality
              A server that enables browser-based local LLM inference using Playwright to automate interactions with @mlc-ai/web-llm, supporting text generation, chat sessions, model switching, and status monitoring.
              Last updated -
              1
              TypeScript

            View all related MCP servers

            MCP directory API

            We provide all the information about MCP servers via our MCP API.

            curl -X GET 'https://glama.ai/api/mcp/v1/servers/MadMando/mcp-autonomous-analyst'

            If you have feedback or need assistance with the MCP directory API, please join our Discord server