Skip to main content
Glama

MCP Autonomous Analyst

by MadMando

自主分析师

🧠 概述

自主分析师是一个本地代理人工智能管道,它:

  • 分析表格数据
  • 使用马氏距离检测异常
  • 使用本地 LLM(通过 Ollama 的 llama3.2:1b)生成解释性摘要
  • 将结果记录到 ChromaDB 以进行语义调用
  • 通过模型上下文协议 (MCP) 进行全面协调

⚙️ 功能

成分描述
FastAPI Web 用户界面用于合成或上传数据集的友好仪表板
MCP 工具编排每个流程步骤都公开为可调用的 MCP 工具
异常检测基于马氏距离的异常值检测
视觉输出保存的正常值与异常值的散点图
本地法学硕士总结通过 Ollama 使用llama3.2:1b生成的洞察
向量存储日志摘要存储在 ChromaDB 中作为持久内存
代理规划工具专用的 LLM 工具( autonomous_plan )根据数据集上下文确定下一步
代理流LLM+记忆+工具使用+自动推理+情境感知

🧪 工具定义(通过 MCP)

工具名称描述法学硕士使用
generate_data创建合成表格数据(高斯+分类)
analyze_outliers使用马氏距离标记行
plot_results保存可视化内点与异常值的图表
summarize_results使用llama3.2:1b解释和说明异常值分布
summarize_data_stats使用llama3.2:1b描述数据集趋势
log_results_to_vector_store将摘要存储到 ChromaDB 以供将来参考
search_logs使用向量搜索检索相关的过去会话(可选的 LLM 使用)⚠️
autonomous_plan运行完整的流程,使用 LLM 自动推荐下一步行动

🤖 代理能力

  • 自主性:使用autonomous_plan进行 LLM 引导的执行路径选择
  • 工具使用:通过 LLM 推理动态调用已注册的 MCP 工具
  • 推理:从数据集条件和异常值分析中产生技术见解
  • 记忆:使用 ChromaDB 向量搜索保存和回忆知识
  • LLM :由 Ollama 提供支持,使用llama3.2:1b (温度 = 0.1,确定性)

🚀 入门

1. 克隆并设置

git clone https://github.com/MadMando/mcp-autonomous-analyst.git cd mcp-autonomous-analyst conda create -n mcp-agentic python=3.11 -y conda activate mcp-agentic pip install uv uv pip install -r requirements.txt

2. 启动 MCP 服务器

mcp run server.py --transport streamable-http

3. 启动 Web 仪表板

uvicorn web:app --reload --port 8001

然后访问: http://localhost:8000


🌐 仪表板流程

  • **步骤 1:**上传您自己的数据集或单击Generate Synthetic Data
  • **步骤 2:**系统对feature_1feature_2运行异常检测
  • **步骤 3:**生成异常值的可视化图表
  • **步骤 4:**通过 LLM 创建摘要
  • **步骤 5:**结果可选择记录到向量存储中以供调用

📁 项目布局

📦 autonomous-analyst/ ├── server.py # MCP server ├── web.py # FastAPI + MCP client (frontend logic) ├── tools/ │ ├── synthetic_data.py │ ├── outlier_detection.py │ ├── plotter.py │ ├── summarizer.py │ ├── vector_store.py ├── static/ # Saved plot ├── data/ # Uploaded or generated dataset ├── requirements.txt ├── .gitignore └── README.md

📚 技术栈

  • MCP SDK: mcp
  • LLM 推理: Ollama运行llama3.2:1b
  • UI 服务器: FastAPI + Uvicorn
  • 内存: ChromaDB矢量数据库
  • 数据: pandasmatplotlibscikit-learn

✅ .gitignore 附加内容

__pycache__/ *.pyc *.pkl .env static/ data/

🙌 致谢

如果没有开源社区的辛勤付出,这个项目就不可能实现。特别感谢:

工具/库目的存储库
🧠模型上下文协议(MCP)代理工具编排和执行modelcontextprotocol/python-sdk
💬奥拉玛本地 LLM 推理引擎( llama3.2:1b奥拉马
🔍 ChromaDB用于记录和检索的矢量数据库chroma-core/chroma
🌐 FastAPI交互式、快速的 Web 界面tiangolo/fastapi
UvicornASGI 服务器为 FastAPI 后端提供支持编码/uvicorn

💡 如果您使用这个项目,请考虑为实现该项目的上游工具加注或做出贡献。

此 repo 是在本地 rag-llm 的帮助下使用 llama3.2:1b 创建的

-
security - not tested
F
license - not found
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

本地代理 AI 管道,使用通过模型上下文协议协调的本地 LLM 分析表格数据、检测异常并生成解释性摘要。

  1. 🧠 概述
    1. ⚙️ 功能
    2. 🧪 工具定义(通过 MCP)
    3. 🤖 代理能力
  2. 🚀 入门
    1. 1. 克隆并设置
    2. 2. 启动 MCP 服务器
    3. 3. 启动 Web 仪表板
  3. 🌐 仪表板流程
    1. 📁 项目布局
      1. 📚 技术栈
        1. ✅ .gitignore 附加内容
          1. 🙌 致谢

            Related MCP Servers

            • A
              security
              A
              license
              A
              quality
              Agentic tool that looks for statistical variations in conversation structure and logs unusual events to a SQLite database. Built using the Model Context Protocol (MCP), this system is designed to be used with Claude Desktop or other MCP-compatible clients.
              Last updated -
              8
              4
              Python
              MIT License
              • Apple
              • Linux
            • -
              security
              F
              license
              -
              quality
              Enables AI models to interact with Linear for issue tracking and project management through the Model Context Protocol, supporting capabilities like creating issues, searching, managing sprints, and bulk updating statuses.
              Last updated -
              5
              TypeScript
            • A
              security
              A
              license
              A
              quality
              Unleashes LLM-powered agents to autonomously execute and debug web apps directly in your code editor, with features like webapp navigation, network traffic capture, and console error collection.
              Last updated -
              1
              1,128
              Python
              Apache 2.0
              • Apple
              • Linux
            • -
              security
              F
              license
              -
              quality
              A server that enables browser-based local LLM inference using Playwright to automate interactions with @mlc-ai/web-llm, supporting text generation, chat sessions, model switching, and status monitoring.
              Last updated -
              1
              TypeScript

            View all related MCP servers

            MCP directory API

            We provide all the information about MCP servers via our MCP API.

            curl -X GET 'https://glama.ai/api/mcp/v1/servers/MadMando/mcp-autonomous-analyst'

            If you have feedback or need assistance with the MCP directory API, please join our Discord server