Analista Autónomo
🧠 Descripción general
Autonomous Analyst es un pipeline de IA local y agente que:
Analiza datos tabulares
Detecta anomalías con la distancia de Mahalanobis
Utiliza un LLM local (llama3.2:1b a través de Ollama) para generar resúmenes interpretativos
Registra los resultados en ChromaDB para su recuperación semántica
Está completamente orquestado a través del Protocolo de Contexto de Modelo (MCP)
⚙️ Características
Componente | Descripción |
Interfaz de usuario web de FastAPI | Panel de control amigable para conjuntos de datos sintéticos o cargados |
Orquestación de herramientas MCP | Cada paso del proceso se expone como una herramienta MCP invocable |
Detección de anomalías | Detección de valores atípicos basada en la distancia de Mahalanobis |
Salida visual | Diagrama de dispersión guardado de valores atípicos frente a valores atípicos |
Resumen de LLM local | Información generada con
a través de Ollama |
Registro de la tienda de vectores | Los resúmenes se almacenan en ChromaDB para memoria persistente. |
Herramienta de planificación de agentes | Una herramienta LLM dedicada (
) determina los próximos pasos según el contexto del conjunto de datos |
Flujo agente | LLM + memoria + uso de herramientas + razonamiento automático + conciencia del contexto |
🧪 Herramientas definidas (a través de MCP)
Nombre de la herramienta | Descripción | LLM usado |
| Crear datos tabulares sintéticos (gaussianos + categóricos) | ❌ |
| Etiquetar filas usando la distancia de Mahalanobis | ❌ |
| Guardar un gráfico que visualiza valores atípicos frente a valores atípicos | ❌ |
| Interpretar y explicar la distribución de valores atípicos utilizando
| ✅ |
| Describir las tendencias del conjunto de datos utilizando
| ✅ |
| Almacenar resúmenes en ChromaDB para referencia futura | ❌ |
| Recupere sesiones pasadas relevantes mediante la búsqueda vectorial (uso opcional de LLM) | ⚠️ |
| Ejecute el pipeline completo, utilice LLM para recomendar las próximas acciones automáticamente | ✅ |
🤖 Capacidades de agente
Autonomía : selección de ruta de ejecución guiada por LLM con
autonomous_planUso de la herramienta : invoca dinámicamente herramientas MCP registradas a través de inferencia LLM
Razonamiento : genera información técnica a partir de las condiciones del conjunto de datos y el análisis de valores atípicos.
Memoria : Persiste y recuerda el conocimiento mediante la búsqueda vectorial de ChromaDB
LLM : Desarrollado por Ollama con
llama3.2:1b(temperatura = 0,1, determinista)
Related MCP server: MCP Prompt Enhancer
🚀 Primeros pasos
1. Clonar y configurar
2. Inicie el servidor MCP
3. Inicie el Panel de Control Web
Luego visita: http://localhost:8000
Flujo del panel
Paso 1: Cargue su propio conjunto de datos o haga clic en
Generate Synthetic DataPaso 2: El sistema ejecuta la detección de anomalías en
feature_1frente afeature_2Paso 3: Se genera un gráfico visual de valores atípicos
Paso 4: Los resúmenes se crean a través de LLM
Paso 5: Los resultados se registran opcionalmente en el almacén de vectores para su recuperación.
📁 Diseño del proyecto
Pila tecnológica
SDK de MCP:
mcpInferencia LLM: Ollama ejecutando
llama3.2:1bServidor de interfaz de usuario: FastAPI + Uvicorn
Memoria: base de datos vectorial ChromaDB
Datos:
pandas,matplotlib,scikit-learn
✅ Adiciones de .gitignore
🙌 Agradecimientos
Este proyecto no sería posible sin el increíble trabajo de la comunidad de código abierto. Agradecimientos especiales a:
Herramienta/Biblioteca | Objetivo | Repositorio |
Protocolo de Contexto Modelo (MCP) | Orquestación y ejecución de herramientas de Agentic | |
💬 Ollama | Motor de inferencia LLM local (
) | |
🔍 ChromaDB | Base de datos vectorial para registro y recuperación | |
🌐 FastAPI | Interfaz web interactiva y rápida | |
⚡ Uvicornio | Servidor ASGI que alimenta el backend FastAPI |
💡 Si utiliza este proyecto, considere destacarlo o contribuir con las herramientas upstream que lo hacen posible.
Este repositorio fue creado con la ayuda de un rag-llm local usando llama3.2:1b