Analista Autónomo
🧠 Descripción general
Autonomous Analyst es un pipeline de IA local y agente que:
- Analiza datos tabulares
- Detecta anomalías con la distancia de Mahalanobis
- Utiliza un LLM local (llama3.2:1b a través de Ollama) para generar resúmenes interpretativos
- Registra los resultados en ChromaDB para su recuperación semántica
- Está completamente orquestado a través del Protocolo de Contexto de Modelo (MCP)
⚙️ Características
Componente | Descripción |
---|---|
Interfaz de usuario web de FastAPI | Panel de control amigable para conjuntos de datos sintéticos o cargados |
Orquestación de herramientas MCP | Cada paso del proceso se expone como una herramienta MCP invocable |
Detección de anomalías | Detección de valores atípicos basada en la distancia de Mahalanobis |
Salida visual | Diagrama de dispersión guardado de valores atípicos frente a valores atípicos |
Resumen de LLM local | Información generada con llama3.2:1b a través de Ollama |
Registro de la tienda de vectores | Los resúmenes se almacenan en ChromaDB para memoria persistente. |
Herramienta de planificación de agentes | Una herramienta LLM dedicada ( autonomous_plan ) determina los próximos pasos según el contexto del conjunto de datos |
Flujo agente | LLM + memoria + uso de herramientas + razonamiento automático + conciencia del contexto |
🧪 Herramientas definidas (a través de MCP)
Nombre de la herramienta | Descripción | LLM usado |
---|---|---|
generate_data | Crear datos tabulares sintéticos (gaussianos + categóricos) | ❌ |
analyze_outliers | Etiquetar filas usando la distancia de Mahalanobis | ❌ |
plot_results | Guardar un gráfico que visualiza valores atípicos frente a valores atípicos | ❌ |
summarize_results | Interpretar y explicar la distribución de valores atípicos utilizando llama3.2:1b | ✅ |
summarize_data_stats | Describir las tendencias del conjunto de datos utilizando llama3.2:1b | ✅ |
log_results_to_vector_store | Almacenar resúmenes en ChromaDB para referencia futura | ❌ |
search_logs | Recupere sesiones pasadas relevantes mediante la búsqueda vectorial (uso opcional de LLM) | ⚠️ |
autonomous_plan | Ejecute el pipeline completo, utilice LLM para recomendar las próximas acciones automáticamente | ✅ |
🤖 Capacidades de agente
- Autonomía : selección de ruta de ejecución guiada por LLM con
autonomous_plan
- Uso de la herramienta : invoca dinámicamente herramientas MCP registradas a través de inferencia LLM
- Razonamiento : genera información técnica a partir de las condiciones del conjunto de datos y el análisis de valores atípicos.
- Memoria : Persiste y recuerda el conocimiento mediante la búsqueda vectorial de ChromaDB
- LLM : Desarrollado por Ollama con
llama3.2:1b
(temperatura = 0,1, determinista)
🚀 Primeros pasos
1. Clonar y configurar
2. Inicie el servidor MCP
3. Inicie el Panel de Control Web
Luego visita: http://localhost:8000
Flujo del panel
- Paso 1: Cargue su propio conjunto de datos o haga clic en
Generate Synthetic Data
- Paso 2: El sistema ejecuta la detección de anomalías en
feature_1
frente afeature_2
- Paso 3: Se genera un gráfico visual de valores atípicos
- Paso 4: Los resúmenes se crean a través de LLM
- Paso 5: Los resultados se registran opcionalmente en el almacén de vectores para su recuperación.
📁 Diseño del proyecto
Pila tecnológica
- SDK de MCP:
mcp
- Inferencia LLM: Ollama ejecutando
llama3.2:1b
- Servidor de interfaz de usuario: FastAPI + Uvicorn
- Memoria: base de datos vectorial ChromaDB
- Datos:
pandas
,matplotlib
,scikit-learn
✅ Adiciones de .gitignore
🙌 Agradecimientos
Este proyecto no sería posible sin el increíble trabajo de la comunidad de código abierto. Agradecimientos especiales a:
Herramienta/Biblioteca | Objetivo | Repositorio |
---|---|---|
Protocolo de Contexto Modelo (MCP) | Orquestación y ejecución de herramientas de Agentic | modelocontextoprotocolo/sdk de Python |
💬 Ollama | Motor de inferencia LLM local ( llama3.2:1b ) | ollama/ollama |
🔍 ChromaDB | Base de datos vectorial para registro y recuperación | núcleo de croma/croma |
🌐 FastAPI | Interfaz web interactiva y rápida | tiangolo/fastapi |
⚡ Uvicornio | Servidor ASGI que alimenta el backend FastAPI | codificar/uvicornio |
💡 Si utiliza este proyecto, considere destacarlo o contribuir con las herramientas upstream que lo hacen posible.
Este repositorio fue creado con la ayuda de un rag-llm local usando llama3.2:1b
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
Una canalización de inteligencia artificial local y agente que analiza datos tabulares, detecta anomalías y genera resúmenes interpretativos utilizando LLM locales orquestados a través del Protocolo de contexto de modelo.
Related MCP Servers
- AsecurityAlicenseAqualityAgentic tool that looks for statistical variations in conversation structure and logs unusual events to a SQLite database. Built using the Model Context Protocol (MCP), this system is designed to be used with Claude Desktop or other MCP-compatible clients.Last updated -84PythonMIT License
- -securityFlicense-qualityEnables AI models to interact with Linear for issue tracking and project management through the Model Context Protocol, supporting capabilities like creating issues, searching, managing sprints, and bulk updating statuses.Last updated -5TypeScript
- AsecurityAlicenseAqualityUnleashes LLM-powered agents to autonomously execute and debug web apps directly in your code editor, with features like webapp navigation, network traffic capture, and console error collection.Last updated -11,128PythonApache 2.0
- -securityFlicense-qualityA server that enables browser-based local LLM inference using Playwright to automate interactions with @mlc-ai/web-llm, supporting text generation, chat sessions, model switching, and status monitoring.Last updated -1TypeScript