Skip to main content
Glama

MCP Autonomous Analyst

by MadMando

자율 분석가

🧠 개요

Autonomous Analyst는 다음을 수행하는 로컬 에이전트 AI 파이프라인입니다.

  • 표 형식의 데이터를 분석합니다
  • 마할라노비스 거리를 이용한 이상 감지
  • 해석 요약을 생성하기 위해 로컬 LLM(Ollama를 통한 llama3.2:1b)을 사용합니다.
  • 의미적 회수를 위해 ChromaDB에 결과를 기록합니다.
  • MCP(Model Context Protocol)를 통해 완벽하게 조율됩니다.

⚙️ 특징

요소설명
FastAPI 웹 UI합성 또는 업로드된 데이터 세트를 위한 사용자 친화적 대시보드
MCP 도구 오케스트레이션각 프로세스 단계는 호출 가능한 MCP 도구로 노출됩니다.
이상 감지마할라노비스 거리 기반 이상치 감지
시각적 출력내부값과 외부값의 저장된 산점도
지역 LLM 요약Ollama를 통해 llama3.2:1b 사용하여 생성된 통찰력
벡터 스토어 로깅요약은 영구 메모리를 위해 ChromaDB에 저장됩니다.
에이전트 계획 도구전담 LLM 도구( autonomous_plan )는 데이터 세트 컨텍스트를 기반으로 다음 단계를 결정합니다.
에이전트 흐름LLM + 기억 + 도구 사용 + 자동 추론 + 상황 인식

🧪 도구 정의(MCP를 통해)

도구 이름설명LLM 사용됨
generate_data합성 표형 데이터(가우스 + 범주형) 생성
analyze_outliers마할라노비스 거리를 사용하여 행에 레이블을 지정합니다.
plot_results인라이어와 아웃라이어를 시각화하는 플롯 저장
summarize_resultsllama3.2:1b 사용하여 이상치 분포를 해석하고 설명합니다.
summarize_data_statsllama3.2:1b 사용하여 데이터 세트 추세를 설명합니다.
log_results_to_vector_store나중에 참조할 수 있도록 ChromaDB에 요약을 저장합니다.
search_logs벡터 검색을 사용하여 관련 과거 세션 검색(선택적 LLM 사용)⚠️
autonomous_plan전체 파이프라인을 실행하고 LLM을 사용하여 다음 작업을 자동으로 권장합니다.

🤖 에이전트 기능

  • 자율성 : LLM 기반 실행 경로 선택 autonomous_plan 포함)
  • 도구 사용 : LLM 추론을 통해 등록된 MCP 도구를 동적으로 호출합니다.
  • 추론 : 데이터 세트 조건 및 이상치 분석으로부터 기술적 통찰력을 생성합니다.
  • 메모리 : ChromaDB 벡터 검색을 사용하여 지식을 지속하고 회상합니다.
  • LLM : llama3.2:1b (온도 = 0.1, 결정적)를 탑재한 Ollama 기반

🚀 시작하기

1. 복제 및 설정

지엑스피1

2. MCP 서버 시작

mcp run server.py --transport streamable-http

3. 웹 대시보드 시작

uvicorn web:app --reload --port 8001

그런 다음 http://localhost:8000을 방문하세요.


🌐 대시보드 흐름

  • 1단계: 자신의 데이터 세트를 업로드하거나 Generate Synthetic Data 클릭하세요.
  • 2단계: 시스템은 feature_1feature_2 에 대해 이상 감지를 실행합니다.
  • 3단계: 이상치의 시각적 플롯이 생성됩니다.
  • 4단계: 요약은 LLM을 통해 생성됩니다.
  • 5단계: 결과는 선택적으로 회수를 위해 벡터 저장소에 기록됩니다.

📁 프로젝트 레이아웃

📦 autonomous-analyst/ ├── server.py # MCP server ├── web.py # FastAPI + MCP client (frontend logic) ├── tools/ │ ├── synthetic_data.py │ ├── outlier_detection.py │ ├── plotter.py │ ├── summarizer.py │ ├── vector_store.py ├── static/ # Saved plot ├── data/ # Uploaded or generated dataset ├── requirements.txt ├── .gitignore └── README.md

📚 기술 스택

  • MCP SDK: mcp
  • LLM 추론: Ollama가 llama3.2:1b 실행 중입니다.
  • UI 서버: FastAPI + Uvicorn
  • 메모리: ChromaDB 벡터 데이터베이스
  • 데이터: pandas , matplotlib , scikit-learn

✅ .gitignore 추가

__pycache__/ *.pyc *.pkl .env static/ data/

🙌 감사의 말

오픈소스 커뮤니티의 놀라운 노고가 없었다면 이 프로젝트는 불가능했을 것입니다. 특별히 감사드립니다.

도구/라이브러리목적저장소
🧠 모델 컨텍스트 프로토콜(MCP)에이전트 도구 오케스트레이션 및 실행모델 컨텍스트 프로토콜/파이썬 SDK
💬 올라마로컬 LLM 추론 엔진( llama3.2:1b )올라마/올라마
🔍 크로마DB로깅 및 검색을 위한 벡터 데이터베이스크로마코어/크로마
🌐 패스트API대화형, 빠른 웹 인터페이스티앙골로/파스타피
유비콘FastAPI 백엔드를 구동하는 ASGI 서버인코딩/유비콘

💡 이 프로젝트를 사용하신다면, 이 프로젝트를 가능하게 하는 업스트림 도구에 별점을 주거나 기여해 주시기 바랍니다.

이 저장소는 llama3.2:1b를 사용하는 로컬 rag-llm의 도움으로 생성되었습니다.

-
security - not tested
F
license - not found
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

모델 컨텍스트 프로토콜을 통해 조직된 로컬 LLM을 사용하여 표 형식 데이터를 분석하고, 이상을 감지하고, 해석적 요약을 생성하는 로컬 에이전트 AI 파이프라인입니다.

  1. 🧠 개요
    1. ⚙️ 특징
    2. 🧪 도구 정의(MCP를 통해)
    3. 🤖 에이전트 기능
  2. 🚀 시작하기
    1. 복제 및 설정
    2. MCP 서버 시작
    3. 웹 대시보드 시작
  3. 🌐 대시보드 흐름
    1. 📁 프로젝트 레이아웃
      1. 📚 기술 스택
        1. ✅ .gitignore 추가
          1. 🙌 감사의 말

            Related MCP Servers

            • -
              security
              F
              license
              -
              quality
              Facilitates enhanced interaction with large language models (LLMs) by providing intelligent context management, tool integration, and multi-provider AI model coordination for efficient AI-driven workflows.
              Last updated -
              Python
            • -
              security
              A
              license
              -
              quality
              A Model Context Protocol server enabling AI agents to access and manipulate ServiceNow data through natural language interactions, allowing users to search for records, update them, and manage scripts.
              Last updated -
              9
              Python
              MIT License
            • -
              security
              A
              license
              -
              quality
              An MCP server implementation that integrates AI assistants with Langfuse workspaces, allowing models to query LLM metrics by time range.
              Last updated -
              9
              JavaScript
              Apache 2.0
            • -
              security
              -
              license
              -
              quality
              Connect your AI models to your favorite SurrealDB database, and let the LLMs do all your work for you.
              Last updated -
              3
              JavaScript

            View all related MCP servers

            MCP directory API

            We provide all the information about MCP servers via our MCP API.

            curl -X GET 'https://glama.ai/api/mcp/v1/servers/MadMando/mcp-autonomous-analyst'

            If you have feedback or need assistance with the MCP directory API, please join our Discord server