MCP Autonomous Analyst
Analista Autónomo
🧠 Descripción general
Autonomous Analyst es un pipeline de IA local y agente que:
Analiza datos tabulares
Detecta anomalías con la distancia de Mahalanobis
Utiliza un LLM local (llama3.2:1b a través de Ollama) para generar resúmenes interpretativos
Registra los resultados en ChromaDB para su recuperación semántica
Está completamente orquestado a través del Protocolo de Contexto de Modelo (MCP)
⚙️ Características
Componente | Descripción |
Interfaz de usuario web de FastAPI | Panel de control amigable para conjuntos de datos sintéticos o cargados |
Orquestación de herramientas MCP | Cada paso del proceso se expone como una herramienta MCP invocable |
Detección de anomalías | Detección de valores atípicos basada en la distancia de Mahalanobis |
Salida visual | Diagrama de dispersión guardado de valores atípicos frente a valores atípicos |
Resumen de LLM local | Información generada con |
Registro de la tienda de vectores | Los resúmenes se almacenan en ChromaDB para memoria persistente. |
Herramienta de planificación de agentes | Una herramienta LLM dedicada ( |
Flujo agente | LLM + memoria + uso de herramientas + razonamiento automático + conciencia del contexto |
🧪 Herramientas definidas (a través de MCP)
Nombre de la herramienta | Descripción | LLM usado |
| Crear datos tabulares sintéticos (gaussianos + categóricos) | ❌ |
| Etiquetar filas usando la distancia de Mahalanobis | ❌ |
| Guardar un gráfico que visualiza valores atípicos frente a valores atípicos | ❌ |
| Interpretar y explicar la distribución de valores atípicos utilizando | ✅ |
| Describir las tendencias del conjunto de datos utilizando | ✅ |
| Almacenar resúmenes en ChromaDB para referencia futura | ❌ |
| Recupere sesiones pasadas relevantes mediante la búsqueda vectorial (uso opcional de LLM) | ⚠️ |
| Ejecute el pipeline completo, utilice LLM para recomendar las próximas acciones automáticamente | ✅ |
🤖 Capacidades de agente
Autonomía : selección de ruta de ejecución guiada por LLM con
autonomous_planUso de la herramienta : invoca dinámicamente herramientas MCP registradas a través de inferencia LLM
Razonamiento : genera información técnica a partir de las condiciones del conjunto de datos y el análisis de valores atípicos.
Memoria : Persiste y recuerda el conocimiento mediante la búsqueda vectorial de ChromaDB
LLM : Desarrollado por Ollama con
llama3.2:1b(temperatura = 0,1, determinista)
Related MCP server: MCP Prompt Enhancer
🚀 Primeros pasos
1. Clonar y configurar
git clone https://github.com/MadMando/mcp-autonomous-analyst.git
cd mcp-autonomous-analyst
conda create -n mcp-agentic python=3.11 -y
conda activate mcp-agentic
pip install uv
uv pip install -r requirements.txt2. Inicie el servidor MCP
mcp run server.py --transport streamable-http3. Inicie el Panel de Control Web
uvicorn web:app --reload --port 8001Luego visita: http://localhost:8000
Flujo del panel
Paso 1: Cargue su propio conjunto de datos o haga clic en
Generate Synthetic DataPaso 2: El sistema ejecuta la detección de anomalías en
feature_1frente afeature_2Paso 3: Se genera un gráfico visual de valores atípicos
Paso 4: Los resúmenes se crean a través de LLM
Paso 5: Los resultados se registran opcionalmente en el almacén de vectores para su recuperación.
📁 Diseño del proyecto
📦 autonomous-analyst/
├── server.py # MCP server
├── web.py # FastAPI + MCP client (frontend logic)
├── tools/
│ ├── synthetic_data.py
│ ├── outlier_detection.py
│ ├── plotter.py
│ ├── summarizer.py
│ ├── vector_store.py
├── static/ # Saved plot
├── data/ # Uploaded or generated dataset
├── requirements.txt
├── .gitignore
└── README.mdPila tecnológica
SDK de MCP:
mcpInferencia LLM: Ollama ejecutando
llama3.2:1bServidor de interfaz de usuario: FastAPI + Uvicorn
Memoria: base de datos vectorial ChromaDB
Datos:
pandas,matplotlib,scikit-learn
✅ Adiciones de .gitignore
__pycache__/
*.pyc
*.pkl
.env
static/
data/🙌 Agradecimientos
Este proyecto no sería posible sin el increíble trabajo de la comunidad de código abierto. Agradecimientos especiales a:
Herramienta/Biblioteca | Objetivo | Repositorio |
Protocolo de Contexto Modelo (MCP) | Orquestación y ejecución de herramientas de Agentic | |
💬 Ollama | Motor de inferencia LLM local ( | |
🔍 ChromaDB | Base de datos vectorial para registro y recuperación | |
🌐 FastAPI | Interfaz web interactiva y rápida | |
⚡ Uvicornio | Servidor ASGI que alimenta el backend FastAPI |
💡 Si utiliza este proyecto, considere destacarlo o contribuir con las herramientas upstream que lo hacen posible.
Este repositorio fue creado con la ayuda de un rag-llm local usando llama3.2:1b
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/MadMando/mcp-autonomous-analyst'
If you have feedback or need assistance with the MCP directory API, please join our Discord server