Skip to main content
Glama

MCP Autonomous Analyst

by MadMando

자율 분석가

🧠 개요

Autonomous Analyst는 다음을 수행하는 로컬 에이전트 AI 파이프라인입니다.

  • 표 형식의 데이터를 분석합니다

  • 마할라노비스 거리를 이용한 이상 감지

  • 해석 요약을 생성하기 위해 로컬 LLM(Ollama를 통한 llama3.2:1b)을 사용합니다.

  • 의미적 회수를 위해 ChromaDB에 결과를 기록합니다.

  • MCP(Model Context Protocol)를 통해 완벽하게 조율됩니다.


⚙️ 특징

요소

설명

FastAPI 웹 UI

합성 또는 업로드된 데이터 세트를 위한 사용자 친화적 대시보드

MCP 도구 오케스트레이션

각 프로세스 단계는 호출 가능한 MCP 도구로 노출됩니다.

이상 감지

마할라노비스 거리 기반 이상치 감지

시각적 출력

내부값과 외부값의 저장된 산점도

지역 LLM 요약

Ollama를 통해

llama3.2:1b

사용하여 생성된 통찰력

벡터 스토어 로깅

요약은 영구 메모리를 위해 ChromaDB에 저장됩니다.

에이전트 계획 도구

전담 LLM 도구(

autonomous_plan

)는 데이터 세트 컨텍스트를 기반으로 다음 단계를 결정합니다.

에이전트 흐름

LLM + 기억 + 도구 사용 + 자동 추론 + 상황 인식


🧪 도구 정의(MCP를 통해)

도구 이름

설명

LLM 사용됨

generate_data

합성 표형 데이터(가우스 + 범주형) 생성

analyze_outliers

마할라노비스 거리를 사용하여 행에 레이블을 지정합니다.

plot_results

인라이어와 아웃라이어를 시각화하는 플롯 저장

summarize_results

llama3.2:1b

사용하여 이상치 분포를 해석하고 설명합니다.

summarize_data_stats

llama3.2:1b

사용하여 데이터 세트 추세를 설명합니다.

log_results_to_vector_store

나중에 참조할 수 있도록 ChromaDB에 요약을 저장합니다.

search_logs

벡터 검색을 사용하여 관련 과거 세션 검색(선택적 LLM 사용)

⚠️

autonomous_plan

전체 파이프라인을 실행하고 LLM을 사용하여 다음 작업을 자동으로 권장합니다.


🤖 에이전트 기능

  • 자율성 : LLM 기반 실행 경로 선택 autonomous_plan 포함)

  • 도구 사용 : LLM 추론을 통해 등록된 MCP 도구를 동적으로 호출합니다.

  • 추론 : 데이터 세트 조건 및 이상치 분석으로부터 기술적 통찰력을 생성합니다.

  • 메모리 : ChromaDB 벡터 검색을 사용하여 지식을 지속하고 회상합니다.

  • LLM : llama3.2:1b (온도 = 0.1, 결정적)를 탑재한 Ollama 기반


🚀 시작하기

1. 복제 및 설정

지엑스피1

2. MCP 서버 시작

mcp run server.py --transport streamable-http

3. 웹 대시보드 시작

uvicorn web:app --reload --port 8001

그런 다음 http://localhost:8000을 방문하세요.


🌐 대시보드 흐름

  • 1단계: 자신의 데이터 세트를 업로드하거나 Generate Synthetic Data 클릭하세요.

  • 2단계: 시스템은 feature_1feature_2 에 대해 이상 감지를 실행합니다.

  • 3단계: 이상치의 시각적 플롯이 생성됩니다.

  • 4단계: 요약은 LLM을 통해 생성됩니다.

  • 5단계: 결과는 선택적으로 회수를 위해 벡터 저장소에 기록됩니다.


📁 프로젝트 레이아웃

📦 autonomous-analyst/ ├── server.py # MCP server ├── web.py # FastAPI + MCP client (frontend logic) ├── tools/ │ ├── synthetic_data.py │ ├── outlier_detection.py │ ├── plotter.py │ ├── summarizer.py │ ├── vector_store.py ├── static/ # Saved plot ├── data/ # Uploaded or generated dataset ├── requirements.txt ├── .gitignore └── README.md

📚 기술 스택

  • MCP SDK: mcp

  • LLM 추론: Ollama가 llama3.2:1b 실행 중입니다.

  • UI 서버: FastAPI + Uvicorn

  • 메모리: ChromaDB 벡터 데이터베이스

  • 데이터: pandas , matplotlib , scikit-learn


✅ .gitignore 추가

__pycache__/ *.pyc *.pkl .env static/ data/

🙌 감사의 말

오픈소스 커뮤니티의 놀라운 노고가 없었다면 이 프로젝트는 불가능했을 것입니다. 특별히 감사드립니다.

도구/라이브러리

목적

저장소

🧠

모델 컨텍스트 프로토콜(MCP)

에이전트 도구 오케스트레이션 및 실행

모델 컨텍스트 프로토콜/파이썬 SDK

💬

올라마

로컬 LLM 추론 엔진(

llama3.2:1b

)

올라마/올라마

🔍

크로마DB

로깅 및 검색을 위한 벡터 데이터베이스

크로마코어/크로마

🌐

패스트API

대화형, 빠른 웹 인터페이스

티앙골로/파스타피

유비콘

FastAPI 백엔드를 구동하는 ASGI 서버

인코딩/유비콘

💡 이 프로젝트를 사용하신다면, 이 프로젝트를 가능하게 하는 업스트림 도구에 별점을 주거나 기여해 주시기 바랍니다.

이 저장소는 llama3.2:1b를 사용하는 로컬 rag-llm의 도움으로 생성되었습니다.

-
security - not tested
F
license - not found
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

모델 컨텍스트 프로토콜을 통해 조직된 로컬 LLM을 사용하여 표 형식 데이터를 분석하고, 이상을 감지하고, 해석적 요약을 생성하는 로컬 에이전트 AI 파이프라인입니다.

  1. 🧠 개요
    1. ⚙️ 특징
    2. 🧪 도구 정의(MCP를 통해)
    3. 🤖 에이전트 기능
  2. 🚀 시작하기
    1. 1. 복제 및 설정
    2. 2. MCP 서버 시작
    3. 3. 웹 대시보드 시작
  3. 🌐 대시보드 흐름
    1. 📁 프로젝트 레이아웃
      1. 📚 기술 스택
        1. ✅ .gitignore 추가
          1. 🙌 감사의 말

            Related MCP Servers

            • -
              security
              F
              license
              -
              quality
              An agentic AI system that orchestrates multiple specialized AI tools to perform business analytics and knowledge retrieval, allowing users to analyze data and access business information through natural language queries.
              Last updated -
              3
            • -
              security
              F
              license
              -
              quality
              Intelligently analyzes codebases to enhance LLM prompts with relevant context, featuring adaptive context management and task detection to produce higher quality AI responses.
              Last updated -
            • -
              security
              A
              license
              -
              quality
              An AI-powered server that analyzes system log files to identify errors/warnings and recommend fixes using FastMCP, LangGraph ReAct agents, and Anthropic Claude.
              Last updated -
              1
              MIT License
            • -
              security
              A
              license
              -
              quality
              Provides AI coding assistants with context optimization tools including targeted file analysis, intelligent terminal command execution with LLM-powered output extraction, and web research capabilities. Helps reduce token usage by extracting only relevant information instead of processing entire files and command outputs.
              Last updated -
              5
              16
              45
              TypeScript
              MIT License

            View all related MCP servers

            MCP directory API

            We provide all the information about MCP servers via our MCP API.

            curl -X GET 'https://glama.ai/api/mcp/v1/servers/MadMando/mcp-autonomous-analyst'

            If you have feedback or need assistance with the MCP directory API, please join our Discord server