Autonomer Analyst
🧠 Übersicht
Autonomous Analyst ist eine lokale, agentenbasierte KI-Pipeline, die:
Analysiert tabellarische Daten
Erkennt Anomalien mit Mahalanobis-Distanz
Verwendet ein lokales LLM (llama3.2:1b über Ollama), um interpretierende Zusammenfassungen zu generieren
Protokolliert Ergebnisse in ChromaDB zum semantischen Abruf
Wird vollständig über das Model Context Protocol (MCP) orchestriert
⚙️ Funktionen
Komponente | Beschreibung |
FastAPI-Web-Benutzeroberfläche | Benutzerfreundliches Dashboard für synthetische oder hochgeladene Datensätze |
MCP-Tool-Orchestrierung | Jeder Prozessschritt wird als aufrufbares MCP-Tool bereitgestellt |
Anomalieerkennung | Mahalanobis Distanzbasierte Ausreißererkennung |
Visuelle Ausgabe | Gespeichertes Streudiagramm von Inliern vs. Ausreißern |
Lokale LLM-Zusammenfassung | Erkenntnisse, die mit
über Ollama generiert wurden |
Vektorspeicherprotokollierung | Zusammenfassungen werden in ChromaDB für einen dauerhaften Speicher gespeichert |
Agentisches Planungstool | Ein dediziertes LLM-Tool (
) bestimmt die nächsten Schritte basierend auf dem Datensatzkontext |
Agentischer Fluss | LLM + Gedächtnis + Werkzeugnutzung + automatisches Denken + Kontextbewusstsein |
🧪 Definierte Tools (über MCP)
Werkzeugname | Beschreibung | LLM Gebraucht |
| Erstellen Sie synthetische tabellarische Daten (Gaußsche + kategorische) | ❌ |
| Zeilen mit Mahalanobis-Distanz beschriften | ❌ |
| Speichern Sie ein Diagramm, das Inliers vs. Ausreißer visualisiert | ❌ |
| Interpretieren und erklären Sie die Ausreißerverteilung mit
| ✅ |
| Beschreiben Sie Datensatztrends mit
| ✅ |
| Speichern Sie Zusammenfassungen zur späteren Verwendung in ChromaDB | ❌ |
| Abrufen relevanter vergangener Sitzungen mithilfe der Vektorsuche (optionale LLM-Verwendung) | ⚠️ |
| Führen Sie die gesamte Pipeline aus und verwenden Sie LLM, um automatisch die nächsten Aktionen zu empfehlen | ✅ |
🤖 Agentenfähigkeiten
Autonomie : LLM-geführte Auswahl des Ausführungspfads mit
autonomous_planTool-Nutzung : Ruft registrierte MCP-Tools dynamisch über LLM-Inferenz auf
Begründung : Generiert technische Erkenntnisse aus Datensatzbedingungen und Ausreißeranalyse
Speicher : Behält Wissen bei und ruft es mithilfe der ChromaDB-Vektorsuche ab
LLM : Powered by Ollama mit
llama3.2:1b(Temperatur = 0,1, deterministisch)
Related MCP server: MCP Prompt Enhancer
🚀 Erste Schritte
1. Klonen und Einrichten
2. Starten Sie den MCP-Server
3. Starten Sie das Web-Dashboard
Besuchen Sie dann: http://localhost:8000
🌐 Dashboard-Flow
Schritt 1: Laden Sie Ihren eigenen Datensatz hoch oder klicken Sie auf
Generate Synthetic DataSchritt 2: Das System führt eine Anomalieerkennung für
feature_1undfeature_2durch.Schritt 3: Visuelle Darstellung der Ausreißer wird erstellt
Schritt 4: Zusammenfassungen werden über LLM erstellt
Schritt 5: Die Ergebnisse werden optional im Vektorspeicher protokolliert, um sie wieder abrufen zu können
📁 Projektlayout
📚 Tech-Stack
MCP SDK:
mcpLLM-Inferenz: Ollama läuft
llama3.2:1bUI-Server: FastAPI + Uvicorn
Speicher: ChromaDB-Vektordatenbank
Daten:
pandas,matplotlib,scikit-learn
✅ .gitignore-Ergänzungen
🙌 Danksagung
Dieses Projekt wäre ohne die unglaubliche Arbeit der Open-Source-Community nicht möglich. Besonderer Dank geht an:
Werkzeug / Bibliothek | Zweck | Archiv |
🧠 Modellkontextprotokoll (MCP) | Orchestrierung und Ausführung von Agententools | |
💬 Ollama | Lokale LLM-Inferenzmaschine (
) | |
🔍 ChromaDB | Vektordatenbank zur Protokollierung und Abfrage | |
🌐 FastAPI | Interaktive, schnelle Weboberfläche | |
⚡ Uvicorn | ASGI-Server, der das FastAPI-Backend betreibt |
💡 Wenn Sie dieses Projekt verwenden, denken Sie bitte darüber nach, die Upstream-Tools, die es ermöglichen, mit einem Stern zu markieren oder zu ihnen beizutragen.
Dieses Repo wurde mit Hilfe eines lokalen Rag-LLM unter Verwendung von llama3.2:1b erstellt.