Skip to main content
Glama

MCP Autonomous Analyst

by MadMando

自律アナリスト

🧠 概要

Autonomous Analyst は、次のような機能を備えたローカルのエージェント AI パイプラインです。

  • 表形式のデータを分析する
  • マハラノビス距離で異常を検出
  • ローカルLLM(Ollama経由のllama3.2:1b)を使用して解釈要約を生成します。
  • セマンティックリコールのために結果をChromaDBに記録する
  • モデルコンテキストプロトコル(MCP)を介して完全にオーケストレーションされます

⚙️ 機能

成分説明
FastAPI Web UI合成データセットまたはアップロードされたデータセット用の使いやすいダッシュボード
MCPツールオーケストレーション各プロセスステップは呼び出し可能なMCPツールとして公開されます
異常検出マハラノビス距離に基づく外れ値検出
視覚的な出力保存された正常値と異常値の散布図
ローカルLLM要約Ollama経由でllama3.2:1bを使用して生成された洞察
ベクターストアのログ記録要約は永続メモリとしてChromaDBに保存されます
エージェントプランニングツール専用のLLMツール( autonomous_plan )はデータセットのコンテキストに基づいて次のステップを決定します。
エージェントフローLLM + 記憶 + ツールの使用 + 自動推論 + 文脈認識

🧪 ツールの定義(MCP経由)

ツール名説明LLM使用
generate_data合成表形式データ(ガウス+カテゴリ)を作成する
analyze_outliersマハラノビス距離を使用して行にラベルを付ける
plot_results正常値と異常値を視覚化したプロットを保存する
summarize_resultsllama3.2:1bを使用して外れ値分布を解釈および説明する
summarize_data_statsllama3.2:1bを使用してデータセットの傾向を説明する
log_results_to_vector_store将来の参照用に要約を ChromaDB に保存します
search_logsベクトル検索を使用して関連する過去のセッションを検索する(LLM の使用はオプション)⚠️
autonomous_planパイプライン全体を実行し、LLM を使用して次のアクションを自動的に推奨します

🤖 エージェント機能

  • Autonomy : autonomous_planによる LLM ガイド実行パス選択
  • ツールの使用: LLM推論を介して登録されたMCPツールを動的に呼び出す
  • 推論:データセットの条件と外れ値分析から技術的な洞察を生成します
  • メモリ: ChromaDB ベクトル検索を使用して知識を保持および呼び出します
  • LLM : Ollama とllama3.2:1bを搭載 (温度 = 0.1、決定論的)

🚀 はじめに

1. クローンとセットアップ

git clone https://github.com/MadMando/mcp-autonomous-analyst.git cd mcp-autonomous-analyst conda create -n mcp-agentic python=3.11 -y conda activate mcp-agentic pip install uv uv pip install -r requirements.txt

2. MCPサーバーを起動する

mcp run server.py --transport streamable-http

3. Webダッシュボードを起動する

uvicorn web:app --reload --port 8001

次に、 http://localhost:8000にアクセスします。


🌐 ダッシュボードフロー

  • **ステップ1:**独自のデータセットをアップロードするか、 Generate Synthetic Dataをクリックします
  • **ステップ2:**システムはfeature_1feature_2に対して異常検出を実行します。
  • **ステップ3:**外れ値の視覚的なプロットが生成される
  • ステップ4: LLMで要約を作成する
  • **ステップ5:**結果はオプションでベクトルストアに記録され、リコールされる

📁 プロジェクトレイアウト

📦 autonomous-analyst/ ├── server.py # MCP server ├── web.py # FastAPI + MCP client (frontend logic) ├── tools/ │ ├── synthetic_data.py │ ├── outlier_detection.py │ ├── plotter.py │ ├── summarizer.py │ ├── vector_store.py ├── static/ # Saved plot ├── data/ # Uploaded or generated dataset ├── requirements.txt ├── .gitignore └── README.md

📚 技術スタック

  • MCP SDK: mcp
  • LLM推論: llama3.2:1bを実行するOllama
  • UI サーバー: FastAPI + Uvicorn
  • メモリ: ChromaDB ベクターデータベース
  • データ: pandasmatplotlibscikit-learn

✅ .gitignore の追加

__pycache__/ *.pyc *.pkl .env static/ data/

🙌 謝辞

このプロジェクトは、オープンソースコミュニティの素晴らしい努力なしには実現できませんでした。特に感謝申し上げます。

ツール / ライブラリ目的リポジトリ
🧠モデルコンテキストプロトコル (MCP)エージェントツールのオーケストレーションと実行モデルコンテキストプロトコル/Python-SDK
💬オラマローカル LLM 推論エンジン ( llama3.2:1b )オラマ/オラマ
🔍クロマDBログ記録と検索のためのベクターデータベースクロマコア/クロマ
🌐高速APIインタラクティブで高速なウェブインターフェースティアンゴロ/ファスタピ
ウビコーンFastAPIバックエンドを支えるASGIサーバーエンコード/uvicorn

💡 このプロジェクトを使用する場合は、スターを付けたり、それを可能にするアップストリームツールに貢献することを検討してください。

このリポジトリは、llama3.2:1b を使用したローカル rag-llm の支援を受けて作成されました。

-
security - not tested
F
license - not found
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

モデル コンテキスト プロトコルを介して調整されたローカル LLM を使用して、表形式のデータを分析し、異常を検出し、解釈サマリーを生成する、ローカルのエージェント AI パイプライン。

  1. 🧠 概要
    1. ⚙️ 機能
    2. 🧪 ツールの定義(MCP経由)
    3. 🤖 エージェント機能
  2. 🚀 はじめに
    1. クローンとセットアップ
    2. MCPサーバーを起動する
    3. Webダッシュボードを起動する
  3. 🌐 ダッシュボードフロー
    1. 📁 プロジェクトレイアウト
      1. 📚 技術スタック
        1. ✅ .gitignore の追加
          1. 🙌 謝辞

            Related MCP Servers

            • -
              security
              F
              license
              -
              quality
              Facilitates enhanced interaction with large language models (LLMs) by providing intelligent context management, tool integration, and multi-provider AI model coordination for efficient AI-driven workflows.
              Last updated -
              Python
            • -
              security
              A
              license
              -
              quality
              A Model Context Protocol server enabling AI agents to access and manipulate ServiceNow data through natural language interactions, allowing users to search for records, update them, and manage scripts.
              Last updated -
              9
              Python
              MIT License
            • -
              security
              A
              license
              -
              quality
              An MCP server implementation that integrates AI assistants with Langfuse workspaces, allowing models to query LLM metrics by time range.
              Last updated -
              9
              JavaScript
              Apache 2.0
            • -
              security
              -
              license
              -
              quality
              Connect your AI models to your favorite SurrealDB database, and let the LLMs do all your work for you.
              Last updated -
              3
              JavaScript

            View all related MCP servers

            MCP directory API

            We provide all the information about MCP servers via our MCP API.

            curl -X GET 'https://glama.ai/api/mcp/v1/servers/MadMando/mcp-autonomous-analyst'

            If you have feedback or need assistance with the MCP directory API, please join our Discord server