Analista Autónomo
🧠 Descripción general
Autonomous Analyst es un pipeline de IA local y agente que:
Analiza datos tabulares
Detecta anomalías con la distancia de Mahalanobis
Utiliza un LLM local (llama3.2:1b a través de Ollama) para generar resúmenes interpretativos
Registra los resultados en ChromaDB para su recuperación semántica
Está completamente orquestado a través del Protocolo de Contexto de Modelo (MCP)
⚙️ Características
Componente | Descripción |
Interfaz de usuario web de FastAPI | Panel de control amigable para conjuntos de datos sintéticos o cargados |
Orquestación de herramientas MCP | Cada paso del proceso se expone como una herramienta MCP invocable |
Detección de anomalías | Detección de valores atípicos basada en la distancia de Mahalanobis |
Salida visual | Diagrama de dispersión guardado de valores atípicos frente a valores atípicos |
Resumen de LLM local | Información generada con
a través de Ollama |
Registro de la tienda de vectores | Los resúmenes se almacenan en ChromaDB para memoria persistente. |
Herramienta de planificación de agentes | Una herramienta LLM dedicada (
) determina los próximos pasos según el contexto del conjunto de datos |
Flujo agente | LLM + memoria + uso de herramientas + razonamiento automático + conciencia del contexto |
🧪 Herramientas definidas (a través de MCP)
Nombre de la herramienta | Descripción | LLM usado |
| Crear datos tabulares sintéticos (gaussianos + categóricos) | ❌ |
| Etiquetar filas usando la distancia de Mahalanobis | ❌ |
| Guardar un gráfico que visualiza valores atípicos frente a valores atípicos | ❌ |
| Interpretar y explicar la distribución de valores atípicos utilizando
| ✅ |
| Describir las tendencias del conjunto de datos utilizando
| ✅ |
| Almacenar resúmenes en ChromaDB para referencia futura | ❌ |
| Recupere sesiones pasadas relevantes mediante la búsqueda vectorial (uso opcional de LLM) | ⚠️ |
| Ejecute el pipeline completo, utilice LLM para recomendar las próximas acciones automáticamente | ✅ |
🤖 Capacidades de agente
Autonomía : selección de ruta de ejecución guiada por LLM con
autonomous_plan
Uso de la herramienta : invoca dinámicamente herramientas MCP registradas a través de inferencia LLM
Razonamiento : genera información técnica a partir de las condiciones del conjunto de datos y el análisis de valores atípicos.
Memoria : Persiste y recuerda el conocimiento mediante la búsqueda vectorial de ChromaDB
LLM : Desarrollado por Ollama con
llama3.2:1b
(temperatura = 0,1, determinista)
🚀 Primeros pasos
1. Clonar y configurar
2. Inicie el servidor MCP
3. Inicie el Panel de Control Web
Luego visita: http://localhost:8000
Flujo del panel
Paso 1: Cargue su propio conjunto de datos o haga clic en
Generate Synthetic Data
Paso 2: El sistema ejecuta la detección de anomalías en
feature_1
frente afeature_2
Paso 3: Se genera un gráfico visual de valores atípicos
Paso 4: Los resúmenes se crean a través de LLM
Paso 5: Los resultados se registran opcionalmente en el almacén de vectores para su recuperación.
📁 Diseño del proyecto
Pila tecnológica
SDK de MCP:
mcp
Inferencia LLM: Ollama ejecutando
llama3.2:1b
Servidor de interfaz de usuario: FastAPI + Uvicorn
Memoria: base de datos vectorial ChromaDB
Datos:
pandas
,matplotlib
,scikit-learn
✅ Adiciones de .gitignore
🙌 Agradecimientos
Este proyecto no sería posible sin el increíble trabajo de la comunidad de código abierto. Agradecimientos especiales a:
Herramienta/Biblioteca | Objetivo | Repositorio |
Protocolo de Contexto Modelo (MCP) | Orquestación y ejecución de herramientas de Agentic | |
💬 Ollama | Motor de inferencia LLM local (
) | |
🔍 ChromaDB | Base de datos vectorial para registro y recuperación | |
🌐 FastAPI | Interfaz web interactiva y rápida | |
⚡ Uvicornio | Servidor ASGI que alimenta el backend FastAPI |
💡 Si utiliza este proyecto, considere destacarlo o contribuir con las herramientas upstream que lo hacen posible.
Este repositorio fue creado con la ayuda de un rag-llm local usando llama3.2:1b
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
Una canalización de inteligencia artificial local y agente que analiza datos tabulares, detecta anomalías y genera resúmenes interpretativos utilizando LLM locales orquestados a través del Protocolo de contexto de modelo.
Related MCP Servers
- -securityFlicense-qualityAn agentic AI system that orchestrates multiple specialized AI tools to perform business analytics and knowledge retrieval, allowing users to analyze data and access business information through natural language queries.Last updated -3
- -securityFlicense-qualityIntelligently analyzes codebases to enhance LLM prompts with relevant context, featuring adaptive context management and task detection to produce higher quality AI responses.Last updated -
- -securityAlicense-qualityAn AI-powered server that analyzes system log files to identify errors/warnings and recommend fixes using FastMCP, LangGraph ReAct agents, and Anthropic Claude.Last updated -1MIT License
- -securityAlicense-qualityProvides AI coding assistants with context optimization tools including targeted file analysis, intelligent terminal command execution with LLM-powered output extraction, and web research capabilities. Helps reduce token usage by extracting only relevant information instead of processing entire files and command outputs.Last updated -51645TypeScriptMIT License