Skip to main content
Glama

MCP Autonomous Analyst

by MadMando

Autonomer Analyst

🧠 Übersicht

Autonomous Analyst ist eine lokale, agentenbasierte KI-Pipeline, die:

  • Analysiert tabellarische Daten
  • Erkennt Anomalien mit Mahalanobis-Distanz
  • Verwendet ein lokales LLM (llama3.2:1b über Ollama), um interpretierende Zusammenfassungen zu generieren
  • Protokolliert Ergebnisse in ChromaDB zum semantischen Abruf
  • Wird vollständig über das Model Context Protocol (MCP) orchestriert

⚙️ Funktionen

KomponenteBeschreibung
FastAPI-Web-BenutzeroberflächeBenutzerfreundliches Dashboard für synthetische oder hochgeladene Datensätze
MCP-Tool-OrchestrierungJeder Prozessschritt wird als aufrufbares MCP-Tool bereitgestellt
AnomalieerkennungMahalanobis Distanzbasierte Ausreißererkennung
Visuelle AusgabeGespeichertes Streudiagramm von Inliern vs. Ausreißern
Lokale LLM-ZusammenfassungErkenntnisse, die mit llama3.2:1b über Ollama generiert wurden
VektorspeicherprotokollierungZusammenfassungen werden in ChromaDB für einen dauerhaften Speicher gespeichert
Agentisches PlanungstoolEin dediziertes LLM-Tool ( autonomous_plan ) bestimmt die nächsten Schritte basierend auf dem Datensatzkontext
Agentischer FlussLLM + Gedächtnis + Werkzeugnutzung + automatisches Denken + Kontextbewusstsein

🧪 Definierte Tools (über MCP)

WerkzeugnameBeschreibungLLM Gebraucht
generate_dataErstellen Sie synthetische tabellarische Daten (Gaußsche + kategorische)
analyze_outliersZeilen mit Mahalanobis-Distanz beschriften
plot_resultsSpeichern Sie ein Diagramm, das Inliers vs. Ausreißer visualisiert
summarize_resultsInterpretieren und erklären Sie die Ausreißerverteilung mit llama3.2:1b
summarize_data_statsBeschreiben Sie Datensatztrends mit llama3.2:1b
log_results_to_vector_storeSpeichern Sie Zusammenfassungen zur späteren Verwendung in ChromaDB
search_logsAbrufen relevanter vergangener Sitzungen mithilfe der Vektorsuche (optionale LLM-Verwendung)⚠️
autonomous_planFühren Sie die gesamte Pipeline aus und verwenden Sie LLM, um automatisch die nächsten Aktionen zu empfehlen

🤖 Agentenfähigkeiten

  • Autonomie : LLM-geführte Auswahl des Ausführungspfads mit autonomous_plan
  • Tool-Nutzung : Ruft registrierte MCP-Tools dynamisch über LLM-Inferenz auf
  • Begründung : Generiert technische Erkenntnisse aus Datensatzbedingungen und Ausreißeranalyse
  • Speicher : Behält Wissen bei und ruft es mithilfe der ChromaDB-Vektorsuche ab
  • LLM : Powered by Ollama mit llama3.2:1b (Temperatur = 0,1, deterministisch)

🚀 Erste Schritte

1. Klonen und Einrichten

git clone https://github.com/MadMando/mcp-autonomous-analyst.git cd mcp-autonomous-analyst conda create -n mcp-agentic python=3.11 -y conda activate mcp-agentic pip install uv uv pip install -r requirements.txt

2. Starten Sie den MCP-Server

mcp run server.py --transport streamable-http

3. Starten Sie das Web-Dashboard

uvicorn web:app --reload --port 8001

Besuchen Sie dann: http://localhost:8000


🌐 Dashboard-Flow

  • Schritt 1: Laden Sie Ihren eigenen Datensatz hoch oder klicken Sie auf Generate Synthetic Data
  • Schritt 2: Das System führt eine Anomalieerkennung für feature_1 und feature_2 durch.
  • Schritt 3: Visuelle Darstellung der Ausreißer wird erstellt
  • Schritt 4: Zusammenfassungen werden über LLM erstellt
  • Schritt 5: Die Ergebnisse werden optional im Vektorspeicher protokolliert, um sie wieder abrufen zu können

📁 Projektlayout

📦 autonomous-analyst/ ├── server.py # MCP server ├── web.py # FastAPI + MCP client (frontend logic) ├── tools/ │ ├── synthetic_data.py │ ├── outlier_detection.py │ ├── plotter.py │ ├── summarizer.py │ ├── vector_store.py ├── static/ # Saved plot ├── data/ # Uploaded or generated dataset ├── requirements.txt ├── .gitignore └── README.md

📚 Tech-Stack

  • MCP SDK: mcp
  • LLM-Inferenz: Ollama läuft llama3.2:1b
  • UI-Server: FastAPI + Uvicorn
  • Speicher: ChromaDB-Vektordatenbank
  • Daten: pandas , matplotlib , scikit-learn

✅ .gitignore-Ergänzungen

__pycache__/ *.pyc *.pkl .env static/ data/

🙌 Danksagung

Dieses Projekt wäre ohne die unglaubliche Arbeit der Open-Source-Community nicht möglich. Besonderer Dank geht an:

Werkzeug / BibliothekZweckArchiv
🧠 Modellkontextprotokoll (MCP)Orchestrierung und Ausführung von AgententoolsModellkontextprotokoll/Python-SDK
💬 OllamaLokale LLM-Inferenzmaschine ( llama3.2:1b )ollama/ollama
🔍 ChromaDBVektordatenbank zur Protokollierung und AbfrageChroma-Core/Chroma
🌐 FastAPIInteraktive, schnelle Weboberflächetiangolo/fastapi
UvicornASGI-Server, der das FastAPI-Backend betreibtencode/uvicorn

💡 Wenn Sie dieses Projekt verwenden, denken Sie bitte darüber nach, die Upstream-Tools, die es ermöglichen, mit einem Stern zu markieren oder zu ihnen beizutragen.

Dieses Repo wurde mit Hilfe eines lokalen Rag-LLM unter Verwendung von llama3.2:1b erstellt.

-
security - not tested
F
license - not found
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

Eine lokale, agentenbasierte KI-Pipeline, die tabellarische Daten analysiert, Anomalien erkennt und interpretierende Zusammenfassungen mithilfe lokaler LLMs generiert, die über das Model Context Protocol orchestriert werden.

  1. 🧠 Übersicht
    1. ⚙️ Funktionen
    2. 🧪 Definierte Tools (über MCP)
    3. 🤖 Agentenfähigkeiten
  2. 🚀 Erste Schritte
    1. Klonen und Einrichten
    2. Starten Sie den MCP-Server
    3. Starten Sie das Web-Dashboard
  3. 🌐 Dashboard-Flow
    1. 📁 Projektlayout
      1. 📚 Tech-Stack
        1. ✅ .gitignore-Ergänzungen
          1. 🙌 Danksagung

            Related MCP Servers

            • -
              security
              F
              license
              -
              quality
              Facilitates enhanced interaction with large language models (LLMs) by providing intelligent context management, tool integration, and multi-provider AI model coordination for efficient AI-driven workflows.
              Last updated -
              Python
            • -
              security
              A
              license
              -
              quality
              A Model Context Protocol server enabling AI agents to access and manipulate ServiceNow data through natural language interactions, allowing users to search for records, update them, and manage scripts.
              Last updated -
              9
              Python
              MIT License
            • -
              security
              A
              license
              -
              quality
              An MCP server implementation that integrates AI assistants with Langfuse workspaces, allowing models to query LLM metrics by time range.
              Last updated -
              9
              JavaScript
              Apache 2.0
            • -
              security
              -
              license
              -
              quality
              Connect your AI models to your favorite SurrealDB database, and let the LLMs do all your work for you.
              Last updated -
              3
              JavaScript

            View all related MCP servers

            MCP directory API

            We provide all the information about MCP servers via our MCP API.

            curl -X GET 'https://glama.ai/api/mcp/v1/servers/MadMando/mcp-autonomous-analyst'

            If you have feedback or need assistance with the MCP directory API, please join our Discord server