自主分析师
🧠 概述
自主分析师是一个本地代理人工智能管道,它:
分析表格数据
使用马氏距离检测异常
使用本地 LLM(通过 Ollama 的 llama3.2:1b)生成解释性摘要
将结果记录到 ChromaDB 以进行语义调用
通过模型上下文协议 (MCP) 进行全面协调
⚙️ 功能
成分 | 描述 |
FastAPI Web 用户界面 | 用于合成或上传数据集的友好仪表板 |
MCP 工具编排 | 每个流程步骤都公开为可调用的 MCP 工具 |
异常检测 | 基于马氏距离的异常值检测 |
视觉输出 | 保存的正常值与异常值的散点图 |
本地法学硕士总结 | 通过 Ollama 使用
生成的洞察 |
向量存储日志 | 摘要存储在 ChromaDB 中作为持久内存 |
代理规划工具 | 专用的 LLM 工具(
)根据数据集上下文确定下一步 |
代理流 | LLM+记忆+工具使用+自动推理+情境感知 |
🧪 工具定义(通过 MCP)
工具名称 | 描述 | 法学硕士使用 |
| 创建合成表格数据(高斯+分类) | ❌ |
| 使用马氏距离标记行 | ❌ |
| 保存可视化内点与异常值的图表 | ❌ |
| 使用
解释和说明异常值分布 | ✅ |
| 使用
描述数据集趋势 | ✅ |
| 将摘要存储到 ChromaDB 以供将来参考 | ❌ |
| 使用向量搜索检索相关的过去会话(可选的 LLM 使用) | ⚠️ |
| 运行完整的流程,使用 LLM 自动推荐下一步行动 | ✅ |
🤖 代理能力
自主性:使用
autonomous_plan进行 LLM 引导的执行路径选择工具使用:通过 LLM 推理动态调用已注册的 MCP 工具
推理:从数据集条件和异常值分析中产生技术见解
记忆:使用 ChromaDB 向量搜索保存和回忆知识
LLM :由 Ollama 提供支持,使用
llama3.2:1b(温度 = 0.1,确定性)
Related MCP server: MCP Prompt Enhancer
🚀 入门
1. 克隆并设置
2. 启动 MCP 服务器
3. 启动 Web 仪表板
然后访问: http://localhost:8000
🌐 仪表板流程
**步骤 1:**上传您自己的数据集或单击
Generate Synthetic Data**步骤 2:**系统对
feature_1与feature_2运行异常检测**步骤 3:**生成异常值的可视化图表
**步骤 4:**通过 LLM 创建摘要
**步骤 5:**结果可选择记录到向量存储中以供调用
📁 项目布局
📚 技术栈
MCP SDK:
mcpLLM 推理: Ollama运行
llama3.2:1bUI 服务器: FastAPI + Uvicorn
内存: ChromaDB矢量数据库
数据:
pandas、matplotlib、scikit-learn
✅ .gitignore 附加内容
🙌 致谢
如果没有开源社区的辛勤付出,这个项目就不可能实现。特别感谢:
工具/库 | 目的 | 存储库 |
🧠 模型上下文协议(MCP) | 代理工具编排和执行 | |
💬 奥拉玛 | 本地 LLM 推理引擎(
) | |
🔍 ChromaDB | 用于记录和检索的矢量数据库 | |
🌐 FastAPI | 交互式、快速的 Web 界面 | |
⚡ Uvicorn | ASGI 服务器为 FastAPI 后端提供支持 |
💡 如果您使用这个项目,请考虑为实现该项目的上游工具加注或做出贡献。
此 repo 是在本地 rag-llm 的帮助下使用 llama3.2:1b 创建的