Autonomer Analyst
🧠 Übersicht
Autonomous Analyst ist eine lokale, agentenbasierte KI-Pipeline, die:
- Analysiert tabellarische Daten
- Erkennt Anomalien mit Mahalanobis-Distanz
- Verwendet ein lokales LLM (llama3.2:1b über Ollama), um interpretierende Zusammenfassungen zu generieren
- Protokolliert Ergebnisse in ChromaDB zum semantischen Abruf
- Wird vollständig über das Model Context Protocol (MCP) orchestriert
⚙️ Funktionen
Komponente | Beschreibung |
---|---|
FastAPI-Web-Benutzeroberfläche | Benutzerfreundliches Dashboard für synthetische oder hochgeladene Datensätze |
MCP-Tool-Orchestrierung | Jeder Prozessschritt wird als aufrufbares MCP-Tool bereitgestellt |
Anomalieerkennung | Mahalanobis Distanzbasierte Ausreißererkennung |
Visuelle Ausgabe | Gespeichertes Streudiagramm von Inliern vs. Ausreißern |
Lokale LLM-Zusammenfassung | Erkenntnisse, die mit llama3.2:1b über Ollama generiert wurden |
Vektorspeicherprotokollierung | Zusammenfassungen werden in ChromaDB für einen dauerhaften Speicher gespeichert |
Agentisches Planungstool | Ein dediziertes LLM-Tool ( autonomous_plan ) bestimmt die nächsten Schritte basierend auf dem Datensatzkontext |
Agentischer Fluss | LLM + Gedächtnis + Werkzeugnutzung + automatisches Denken + Kontextbewusstsein |
🧪 Definierte Tools (über MCP)
Werkzeugname | Beschreibung | LLM Gebraucht |
---|---|---|
generate_data | Erstellen Sie synthetische tabellarische Daten (Gaußsche + kategorische) | ❌ |
analyze_outliers | Zeilen mit Mahalanobis-Distanz beschriften | ❌ |
plot_results | Speichern Sie ein Diagramm, das Inliers vs. Ausreißer visualisiert | ❌ |
summarize_results | Interpretieren und erklären Sie die Ausreißerverteilung mit llama3.2:1b | ✅ |
summarize_data_stats | Beschreiben Sie Datensatztrends mit llama3.2:1b | ✅ |
log_results_to_vector_store | Speichern Sie Zusammenfassungen zur späteren Verwendung in ChromaDB | ❌ |
search_logs | Abrufen relevanter vergangener Sitzungen mithilfe der Vektorsuche (optionale LLM-Verwendung) | ⚠️ |
autonomous_plan | Führen Sie die gesamte Pipeline aus und verwenden Sie LLM, um automatisch die nächsten Aktionen zu empfehlen | ✅ |
🤖 Agentenfähigkeiten
- Autonomie : LLM-geführte Auswahl des Ausführungspfads mit
autonomous_plan
- Tool-Nutzung : Ruft registrierte MCP-Tools dynamisch über LLM-Inferenz auf
- Begründung : Generiert technische Erkenntnisse aus Datensatzbedingungen und Ausreißeranalyse
- Speicher : Behält Wissen bei und ruft es mithilfe der ChromaDB-Vektorsuche ab
- LLM : Powered by Ollama mit
llama3.2:1b
(Temperatur = 0,1, deterministisch)
🚀 Erste Schritte
1. Klonen und Einrichten
2. Starten Sie den MCP-Server
3. Starten Sie das Web-Dashboard
Besuchen Sie dann: http://localhost:8000
🌐 Dashboard-Flow
- Schritt 1: Laden Sie Ihren eigenen Datensatz hoch oder klicken Sie auf
Generate Synthetic Data
- Schritt 2: Das System führt eine Anomalieerkennung für
feature_1
undfeature_2
durch. - Schritt 3: Visuelle Darstellung der Ausreißer wird erstellt
- Schritt 4: Zusammenfassungen werden über LLM erstellt
- Schritt 5: Die Ergebnisse werden optional im Vektorspeicher protokolliert, um sie wieder abrufen zu können
📁 Projektlayout
📚 Tech-Stack
- MCP SDK:
mcp
- LLM-Inferenz: Ollama läuft
llama3.2:1b
- UI-Server: FastAPI + Uvicorn
- Speicher: ChromaDB-Vektordatenbank
- Daten:
pandas
,matplotlib
,scikit-learn
✅ .gitignore-Ergänzungen
🙌 Danksagung
Dieses Projekt wäre ohne die unglaubliche Arbeit der Open-Source-Community nicht möglich. Besonderer Dank geht an:
Werkzeug / Bibliothek | Zweck | Archiv |
---|---|---|
🧠 Modellkontextprotokoll (MCP) | Orchestrierung und Ausführung von Agententools | Modellkontextprotokoll/Python-SDK |
💬 Ollama | Lokale LLM-Inferenzmaschine ( llama3.2:1b ) | ollama/ollama |
🔍 ChromaDB | Vektordatenbank zur Protokollierung und Abfrage | Chroma-Core/Chroma |
🌐 FastAPI | Interaktive, schnelle Weboberfläche | tiangolo/fastapi |
⚡ Uvicorn | ASGI-Server, der das FastAPI-Backend betreibt | encode/uvicorn |
💡 Wenn Sie dieses Projekt verwenden, denken Sie bitte darüber nach, die Upstream-Tools, die es ermöglichen, mit einem Stern zu markieren oder zu ihnen beizutragen.
Dieses Repo wurde mit Hilfe eines lokalen Rag-LLM unter Verwendung von llama3.2:1b erstellt.
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
Eine lokale, agentenbasierte KI-Pipeline, die tabellarische Daten analysiert, Anomalien erkennt und interpretierende Zusammenfassungen mithilfe lokaler LLMs generiert, die über das Model Context Protocol orchestriert werden.
Related MCP Servers
- -securityFlicense-qualityFacilitates enhanced interaction with large language models (LLMs) by providing intelligent context management, tool integration, and multi-provider AI model coordination for efficient AI-driven workflows.Last updated -Python
- -securityAlicense-qualityA Model Context Protocol server enabling AI agents to access and manipulate ServiceNow data through natural language interactions, allowing users to search for records, update them, and manage scripts.Last updated -9PythonMIT License
- -securityAlicense-qualityAn MCP server implementation that integrates AI assistants with Langfuse workspaces, allowing models to query LLM metrics by time range.Last updated -9JavaScriptApache 2.0
- -security-license-qualityConnect your AI models to your favorite SurrealDB database, and let the LLMs do all your work for you.Last updated -3JavaScript