Skip to main content
Glama

Autonomer Analyst

🧠 Übersicht

Autonomous Analyst ist eine lokale, agentenbasierte KI-Pipeline, die:

  • Analysiert tabellarische Daten

  • Erkennt Anomalien mit Mahalanobis-Distanz

  • Verwendet ein lokales LLM (llama3.2:1b über Ollama), um interpretierende Zusammenfassungen zu generieren

  • Protokolliert Ergebnisse in ChromaDB zum semantischen Abruf

  • Wird vollständig über das Model Context Protocol (MCP) orchestriert


⚙️ Funktionen

Komponente

Beschreibung

FastAPI-Web-Benutzeroberfläche

Benutzerfreundliches Dashboard für synthetische oder hochgeladene Datensätze

MCP-Tool-Orchestrierung

Jeder Prozessschritt wird als aufrufbares MCP-Tool bereitgestellt

Anomalieerkennung

Mahalanobis Distanzbasierte Ausreißererkennung

Visuelle Ausgabe

Gespeichertes Streudiagramm von Inliern vs. Ausreißern

Lokale LLM-Zusammenfassung

Erkenntnisse, die mit

llama3.2:1b

über Ollama generiert wurden

Vektorspeicherprotokollierung

Zusammenfassungen werden in ChromaDB für einen dauerhaften Speicher gespeichert

Agentisches Planungstool

Ein dediziertes LLM-Tool (

autonomous_plan

) bestimmt die nächsten Schritte basierend auf dem Datensatzkontext

Agentischer Fluss

LLM + Gedächtnis + Werkzeugnutzung + automatisches Denken + Kontextbewusstsein


🧪 Definierte Tools (über MCP)

Werkzeugname

Beschreibung

LLM Gebraucht

generate_data

Erstellen Sie synthetische tabellarische Daten (Gaußsche + kategorische)

analyze_outliers

Zeilen mit Mahalanobis-Distanz beschriften

plot_results

Speichern Sie ein Diagramm, das Inliers vs. Ausreißer visualisiert

summarize_results

Interpretieren und erklären Sie die Ausreißerverteilung mit

llama3.2:1b

summarize_data_stats

Beschreiben Sie Datensatztrends mit

llama3.2:1b

log_results_to_vector_store

Speichern Sie Zusammenfassungen zur späteren Verwendung in ChromaDB

search_logs

Abrufen relevanter vergangener Sitzungen mithilfe der Vektorsuche (optionale LLM-Verwendung)

⚠️

autonomous_plan

Führen Sie die gesamte Pipeline aus und verwenden Sie LLM, um automatisch die nächsten Aktionen zu empfehlen


🤖 Agentenfähigkeiten

  • Autonomie : LLM-geführte Auswahl des Ausführungspfads mit autonomous_plan

  • Tool-Nutzung : Ruft registrierte MCP-Tools dynamisch über LLM-Inferenz auf

  • Begründung : Generiert technische Erkenntnisse aus Datensatzbedingungen und Ausreißeranalyse

  • Speicher : Behält Wissen bei und ruft es mithilfe der ChromaDB-Vektorsuche ab

  • LLM : Powered by Ollama mit llama3.2:1b (Temperatur = 0,1, deterministisch)


Related MCP server: MCP Prompt Enhancer

🚀 Erste Schritte

1. Klonen und Einrichten

git clone https://github.com/MadMando/mcp-autonomous-analyst.git cd mcp-autonomous-analyst conda create -n mcp-agentic python=3.11 -y conda activate mcp-agentic pip install uv uv pip install -r requirements.txt

2. Starten Sie den MCP-Server

mcp run server.py --transport streamable-http

3. Starten Sie das Web-Dashboard

uvicorn web:app --reload --port 8001

Besuchen Sie dann: http://localhost:8000


🌐 Dashboard-Flow

  • Schritt 1: Laden Sie Ihren eigenen Datensatz hoch oder klicken Sie auf Generate Synthetic Data

  • Schritt 2: Das System führt eine Anomalieerkennung für feature_1 und feature_2 durch.

  • Schritt 3: Visuelle Darstellung der Ausreißer wird erstellt

  • Schritt 4: Zusammenfassungen werden über LLM erstellt

  • Schritt 5: Die Ergebnisse werden optional im Vektorspeicher protokolliert, um sie wieder abrufen zu können


📁 Projektlayout

📦 autonomous-analyst/ ├── server.py # MCP server ├── web.py # FastAPI + MCP client (frontend logic) ├── tools/ │ ├── synthetic_data.py │ ├── outlier_detection.py │ ├── plotter.py │ ├── summarizer.py │ ├── vector_store.py ├── static/ # Saved plot ├── data/ # Uploaded or generated dataset ├── requirements.txt ├── .gitignore └── README.md

📚 Tech-Stack

  • MCP SDK: mcp

  • LLM-Inferenz: Ollama läuft llama3.2:1b

  • UI-Server: FastAPI + Uvicorn

  • Speicher: ChromaDB-Vektordatenbank

  • Daten: pandas , matplotlib , scikit-learn


✅ .gitignore-Ergänzungen

__pycache__/ *.pyc *.pkl .env static/ data/

🙌 Danksagung

Dieses Projekt wäre ohne die unglaubliche Arbeit der Open-Source-Community nicht möglich. Besonderer Dank geht an:

Werkzeug / Bibliothek

Zweck

Archiv

🧠

Modellkontextprotokoll (MCP)

Orchestrierung und Ausführung von Agententools

Modellkontextprotokoll/Python-SDK

💬

Ollama

Lokale LLM-Inferenzmaschine (

llama3.2:1b

)

ollama/ollama

🔍

ChromaDB

Vektordatenbank zur Protokollierung und Abfrage

Chroma-Core/Chroma

🌐

FastAPI

Interaktive, schnelle Weboberfläche

tiangolo/fastapi

Uvicorn

ASGI-Server, der das FastAPI-Backend betreibt

encode/uvicorn

💡 Wenn Sie dieses Projekt verwenden, denken Sie bitte darüber nach, die Upstream-Tools, die es ermöglichen, mit einem Stern zu markieren oder zu ihnen beizutragen.

Dieses Repo wurde mit Hilfe eines lokalen Rag-LLM unter Verwendung von llama3.2:1b erstellt.

-
security - not tested
F
license - not found
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/MadMando/mcp-autonomous-analyst'

If you have feedback or need assistance with the MCP directory API, please join our Discord server