Skip to main content
Glama

MCP Autonomous Analyst

by MadMando

Автономный аналитик

🧠 Обзор

Автономный аналитик — это локальный агентный конвейер ИИ, который:

  • Анализирует табличные данные
  • Обнаруживает аномалии с помощью расстояния Махаланобиса
  • Использует локальный LLM (llama3.2:1b через Ollama) для создания интерпретационных резюме
  • Регистрирует результаты в ChromaDB для семантического вызова
  • Полностью организован через протокол контекста модели (MCP)

⚙️ Особенности

КомпонентОписание
Веб-интерфейс FastAPIУдобная панель инструментов для синтетических или загруженных наборов данных
Оркестровка инструмента MCPКаждый шаг процесса представлен как вызываемый инструмент MCP
Обнаружение аномалийОбнаружение выбросов на основе расстояния Махаланобиса
Визуальный выводСохраненная диаграмма рассеяния инлайеров и аномалий
Локальное обобщение LLMРезультаты, полученные с использованием llama3.2:1b через Ollama
Регистрация векторного хранилищаРезюме хранятся в ChromaDB для постоянной памяти.
Инструмент агентского планированияСпециальный инструмент LLM ( autonomous_plan ) определяет следующие шаги на основе контекста набора данных
Агентный потокLLM + память + использование инструментов + автоматическое рассуждение + понимание контекста

🧪 Определены инструменты (через MCP)

Название инструментаОписаниеLLM используется
generate_dataСоздание синтетических табличных данных (гауссовских + категориальных)
analyze_outliersМаркируйте строки, используя расстояние Махаланобиса
plot_resultsСохраните график, визуализирующий инлайсеры и аномалии
summarize_resultsИнтерпретировать и объяснить распределение выбросов с помощью llama3.2:1b
summarize_data_statsОпишите тенденции набора данных с помощью llama3.2:1b
log_results_to_vector_storeСохраняйте сводки в ChromaDB для дальнейшего использования.
search_logsИзвлечение соответствующих прошлых сеансов с помощью векторного поиска (необязательное использование LLM)⚠️
autonomous_planЗапустите полный конвейер, используйте LLM для автоматической рекомендации следующих действий

🤖 Возможности агента

  • Автономность : выбор пути выполнения под руководством LLM с помощью autonomous_plan
  • Использование инструмента : Динамически вызывает зарегистрированные инструменты MCP через вывод LLM.
  • Рассуждение : формирует технические идеи на основе условий набора данных и анализа выбросов.
  • Память : сохраняет и восстанавливает знания с помощью векторного поиска ChromaDB.
  • LLM : Работает на Ollama с llama3.2:1b (температура = 0,1, детерминированная)

🚀 Начало работы

1. Клонирование и настройка

git clone https://github.com/MadMando/mcp-autonomous-analyst.git cd mcp-autonomous-analyst conda create -n mcp-agentic python=3.11 -y conda activate mcp-agentic pip install uv uv pip install -r requirements.txt

2. Запустите MCP-сервер.

mcp run server.py --transport streamable-http

3. Запустите веб-панель управления

uvicorn web:app --reload --port 8001

Затем посетите: http://localhost:8000


🌐 Поток панели инструментов

  • Шаг 1: Загрузите собственный набор данных или нажмите Generate Synthetic Data
  • Шаг 2: Система запускает обнаружение аномалий на feature_1 и feature_2
  • Шаг 3: Создается визуальный график выбросов.
  • Шаг 4: Резюме создаются с помощью LLM
  • Шаг 5: Результаты могут быть дополнительно записаны в хранилище векторов для последующего использования.

📁 Макет проекта

📦 autonomous-analyst/ ├── server.py # MCP server ├── web.py # FastAPI + MCP client (frontend logic) ├── tools/ │ ├── synthetic_data.py │ ├── outlier_detection.py │ ├── plotter.py │ ├── summarizer.py │ ├── vector_store.py ├── static/ # Saved plot ├── data/ # Uploaded or generated dataset ├── requirements.txt ├── .gitignore └── README.md

📚 Технологический стек

  • MCP SDK: mcp
  • Вывод LLM: Оллама, работающий llama3.2:1b
  • Сервер пользовательского интерфейса: FastAPI + Uvicorn
  • Память: векторная база данных ChromaDB
  • Данные: pandas , matplotlib , scikit-learn

✅ .gitignore Дополнения

__pycache__/ *.pyc *.pkl .env static/ data/

🙌 Благодарности

Этот проект не был бы возможен без невероятной работы сообщества open-source. Особая благодарность:

Инструмент/БиблиотекаЦельРепозиторий
🧠 Протокол контекста модели (MCP)Оркестровка и исполнение агентских инструментовmodelcontextprotocol/python-sdk
💬 ОлламаЛокальный механизм вывода LLM ( llama3.2:1b )оллама/оллама
🔍 ХромаДБВекторная база данных для регистрации и поискаchroma-core/хрома
🌐 FastAPIИнтерактивный, быстрый веб-интерфейстианголо/фастапи
ЮвикорнСервер ASGI, обеспечивающий работу бэкэнда FastAPIкодировать/uvicorn

💡 Если вы используете этот проект, пожалуйста, рассмотрите возможность поставить отметку «звездой» или внести свой вклад в инструменты, которые делают это возможным.

Этот репозиторий был создан при содействии местного rag-llm с использованием llama3.2:1b

-
security - not tested
F
license - not found
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

Локальный агентный конвейер ИИ, который анализирует табличные данные, обнаруживает аномалии и генерирует интерпретационные сводки с использованием локальных LLM, организованных с помощью протокола контекста модели.

  1. 🧠 Обзор
    1. ⚙️ Особенности
    2. 🧪 Определены инструменты (через MCP)
    3. 🤖 Возможности агента
  2. 🚀 Начало работы
    1. Клонирование и настройка
    2. Запустите MCP-сервер.
    3. Запустите веб-панель управления
  3. 🌐 Поток панели инструментов
    1. 📁 Макет проекта
      1. 📚 Технологический стек
        1. ✅ .gitignore Дополнения
          1. 🙌 Благодарности

            Related MCP Servers

            • -
              security
              F
              license
              -
              quality
              Facilitates enhanced interaction with large language models (LLMs) by providing intelligent context management, tool integration, and multi-provider AI model coordination for efficient AI-driven workflows.
              Last updated -
              Python
            • -
              security
              A
              license
              -
              quality
              A Model Context Protocol server enabling AI agents to access and manipulate ServiceNow data through natural language interactions, allowing users to search for records, update them, and manage scripts.
              Last updated -
              9
              Python
              MIT License
            • -
              security
              A
              license
              -
              quality
              An MCP server implementation that integrates AI assistants with Langfuse workspaces, allowing models to query LLM metrics by time range.
              Last updated -
              9
              JavaScript
              Apache 2.0
            • -
              security
              -
              license
              -
              quality
              Connect your AI models to your favorite SurrealDB database, and let the LLMs do all your work for you.
              Last updated -
              3
              JavaScript

            View all related MCP servers

            MCP directory API

            We provide all the information about MCP servers via our MCP API.

            curl -X GET 'https://glama.ai/api/mcp/v1/servers/MadMando/mcp-autonomous-analyst'

            If you have feedback or need assistance with the MCP directory API, please join our Discord server