Skip to main content
Glama

MCP Autonomous Analyst

by MadMando

自主分析师

🧠 概述

自主分析师是一个本地代理人工智能管道,它:

  • 分析表格数据
  • 使用马氏距离检测异常
  • 使用本地 LLM(通过 Ollama 的 llama3.2:1b)生成解释性摘要
  • 将结果记录到 ChromaDB 以进行语义调用
  • 通过模型上下文协议 (MCP) 进行全面协调

⚙️ 功能

成分描述
FastAPI Web 用户界面用于合成或上传数据集的友好仪表板
MCP 工具编排每个流程步骤都公开为可调用的 MCP 工具
异常检测基于马氏距离的异常值检测
视觉输出保存的正常值与异常值的散点图
本地法学硕士总结通过 Ollama 使用llama3.2:1b生成的洞察
向量存储日志摘要存储在 ChromaDB 中作为持久内存
代理规划工具专用的 LLM 工具( autonomous_plan )根据数据集上下文确定下一步
代理流LLM+记忆+工具使用+自动推理+情境感知

🧪 工具定义(通过 MCP)

工具名称描述法学硕士使用
generate_data创建合成表格数据(高斯+分类)
analyze_outliers使用马氏距离标记行
plot_results保存可视化内点与异常值的图表
summarize_results使用llama3.2:1b解释和说明异常值分布
summarize_data_stats使用llama3.2:1b描述数据集趋势
log_results_to_vector_store将摘要存储到 ChromaDB 以供将来参考
search_logs使用向量搜索检索相关的过去会话(可选的 LLM 使用)⚠️
autonomous_plan运行完整的流程,使用 LLM 自动推荐下一步行动

🤖 代理能力

  • 自主性:使用autonomous_plan进行 LLM 引导的执行路径选择
  • 工具使用:通过 LLM 推理动态调用已注册的 MCP 工具
  • 推理:从数据集条件和异常值分析中产生技术见解
  • 记忆:使用 ChromaDB 向量搜索保存和回忆知识
  • LLM :由 Ollama 提供支持,使用llama3.2:1b (温度 = 0.1,确定性)

🚀 入门

1. 克隆并设置

git clone https://github.com/MadMando/mcp-autonomous-analyst.git cd mcp-autonomous-analyst conda create -n mcp-agentic python=3.11 -y conda activate mcp-agentic pip install uv uv pip install -r requirements.txt

2. 启动 MCP 服务器

mcp run server.py --transport streamable-http

3. 启动 Web 仪表板

uvicorn web:app --reload --port 8001

然后访问: http://localhost:8000


🌐 仪表板流程

  • **步骤 1:**上传您自己的数据集或单击Generate Synthetic Data
  • **步骤 2:**系统对feature_1feature_2运行异常检测
  • **步骤 3:**生成异常值的可视化图表
  • **步骤 4:**通过 LLM 创建摘要
  • **步骤 5:**结果可选择记录到向量存储中以供调用

📁 项目布局

📦 autonomous-analyst/ ├── server.py # MCP server ├── web.py # FastAPI + MCP client (frontend logic) ├── tools/ │ ├── synthetic_data.py │ ├── outlier_detection.py │ ├── plotter.py │ ├── summarizer.py │ ├── vector_store.py ├── static/ # Saved plot ├── data/ # Uploaded or generated dataset ├── requirements.txt ├── .gitignore └── README.md

📚 技术栈

  • MCP SDK: mcp
  • LLM 推理: Ollama运行llama3.2:1b
  • UI 服务器: FastAPI + Uvicorn
  • 内存: ChromaDB矢量数据库
  • 数据: pandasmatplotlibscikit-learn

✅ .gitignore 附加内容

__pycache__/ *.pyc *.pkl .env static/ data/

🙌 致谢

如果没有开源社区的辛勤付出,这个项目就不可能实现。特别感谢:

工具/库目的存储库
🧠模型上下文协议(MCP)代理工具编排和执行modelcontextprotocol/python-sdk
💬奥拉玛本地 LLM 推理引擎( llama3.2:1b奥拉马
🔍 ChromaDB用于记录和检索的矢量数据库chroma-core/chroma
🌐 FastAPI交互式、快速的 Web 界面tiangolo/fastapi
UvicornASGI 服务器为 FastAPI 后端提供支持编码/uvicorn

💡 如果您使用这个项目,请考虑为实现该项目的上游工具加注或做出贡献。

此 repo 是在本地 rag-llm 的帮助下使用 llama3.2:1b 创建的

-
security - not tested
F
license - not found
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

本地代理 AI 管道,使用通过模型上下文协议协调的本地 LLM 分析表格数据、检测异常并生成解释性摘要。

  1. 🧠 概述
    1. ⚙️ 功能
    2. 🧪 工具定义(通过 MCP)
    3. 🤖 代理能力
  2. 🚀 入门
    1. 克隆并设置
    2. 启动 MCP 服务器
    3. 启动 Web 仪表板
  3. 🌐 仪表板流程
    1. 📁 项目布局
      1. 📚 技术栈
        1. ✅ .gitignore 附加内容
          1. 🙌 致谢

            Related MCP Servers

            • -
              security
              F
              license
              -
              quality
              Facilitates enhanced interaction with large language models (LLMs) by providing intelligent context management, tool integration, and multi-provider AI model coordination for efficient AI-driven workflows.
              Last updated -
              Python
            • -
              security
              A
              license
              -
              quality
              A Model Context Protocol server enabling AI agents to access and manipulate ServiceNow data through natural language interactions, allowing users to search for records, update them, and manage scripts.
              Last updated -
              9
              Python
              MIT License
            • -
              security
              A
              license
              -
              quality
              An MCP server implementation that integrates AI assistants with Langfuse workspaces, allowing models to query LLM metrics by time range.
              Last updated -
              9
              JavaScript
              Apache 2.0
            • -
              security
              -
              license
              -
              quality
              Connect your AI models to your favorite SurrealDB database, and let the LLMs do all your work for you.
              Last updated -
              3
              JavaScript

            View all related MCP servers

            MCP directory API

            We provide all the information about MCP servers via our MCP API.

            curl -X GET 'https://glama.ai/api/mcp/v1/servers/MadMando/mcp-autonomous-analyst'

            If you have feedback or need assistance with the MCP directory API, please join our Discord server