자율 분석가
🧠 개요
Autonomous Analyst는 다음을 수행하는 로컬 에이전트 AI 파이프라인입니다.
표 형식의 데이터를 분석합니다
마할라노비스 거리를 이용한 이상 감지
해석 요약을 생성하기 위해 로컬 LLM(Ollama를 통한 llama3.2:1b)을 사용합니다.
의미적 회수를 위해 ChromaDB에 결과를 기록합니다.
MCP(Model Context Protocol)를 통해 완벽하게 조율됩니다.
⚙️ 특징
요소 | 설명 |
FastAPI 웹 UI | 합성 또는 업로드된 데이터 세트를 위한 사용자 친화적 대시보드 |
MCP 도구 오케스트레이션 | 각 프로세스 단계는 호출 가능한 MCP 도구로 노출됩니다. |
이상 감지 | 마할라노비스 거리 기반 이상치 감지 |
시각적 출력 | 내부값과 외부값의 저장된 산점도 |
지역 LLM 요약 | Ollama를 통해
사용하여 생성된 통찰력 |
벡터 스토어 로깅 | 요약은 영구 메모리를 위해 ChromaDB에 저장됩니다. |
에이전트 계획 도구 | 전담 LLM 도구(
)는 데이터 세트 컨텍스트를 기반으로 다음 단계를 결정합니다. |
에이전트 흐름 | LLM + 기억 + 도구 사용 + 자동 추론 + 상황 인식 |
🧪 도구 정의(MCP를 통해)
도구 이름 | 설명 | LLM 사용됨 |
| 합성 표형 데이터(가우스 + 범주형) 생성 | ❌ |
| 마할라노비스 거리를 사용하여 행에 레이블을 지정합니다. | ❌ |
| 인라이어와 아웃라이어를 시각화하는 플롯 저장 | ❌ |
|
사용하여 이상치 분포를 해석하고 설명합니다. | ✅ |
|
사용하여 데이터 세트 추세를 설명합니다. | ✅ |
| 나중에 참조할 수 있도록 ChromaDB에 요약을 저장합니다. | ❌ |
| 벡터 검색을 사용하여 관련 과거 세션 검색(선택적 LLM 사용) | ⚠️ |
| 전체 파이프라인을 실행하고 LLM을 사용하여 다음 작업을 자동으로 권장합니다. | ✅ |
🤖 에이전트 기능
자율성 : LLM 기반 실행 경로 선택
autonomous_plan
포함)도구 사용 : LLM 추론을 통해 등록된 MCP 도구를 동적으로 호출합니다.
추론 : 데이터 세트 조건 및 이상치 분석으로부터 기술적 통찰력을 생성합니다.
메모리 : ChromaDB 벡터 검색을 사용하여 지식을 지속하고 회상합니다.
LLM :
llama3.2:1b
(온도 = 0.1, 결정적)를 탑재한 Ollama 기반
🚀 시작하기
1. 복제 및 설정
지엑스피1
2. MCP 서버 시작
3. 웹 대시보드 시작
그런 다음 http://localhost:8000을 방문하세요.
🌐 대시보드 흐름
1단계: 자신의 데이터 세트를 업로드하거나
Generate Synthetic Data
클릭하세요.2단계: 시스템은
feature_1
과feature_2
에 대해 이상 감지를 실행합니다.3단계: 이상치의 시각적 플롯이 생성됩니다.
4단계: 요약은 LLM을 통해 생성됩니다.
5단계: 결과는 선택적으로 회수를 위해 벡터 저장소에 기록됩니다.
📁 프로젝트 레이아웃
📚 기술 스택
MCP SDK:
mcp
LLM 추론: Ollama가
llama3.2:1b
실행 중입니다.UI 서버: FastAPI + Uvicorn
메모리: ChromaDB 벡터 데이터베이스
데이터:
pandas
,matplotlib
,scikit-learn
✅ .gitignore 추가
🙌 감사의 말
오픈소스 커뮤니티의 놀라운 노고가 없었다면 이 프로젝트는 불가능했을 것입니다. 특별히 감사드립니다.
도구/라이브러리 | 목적 | 저장소 |
🧠 모델 컨텍스트 프로토콜(MCP) | 에이전트 도구 오케스트레이션 및 실행 | |
💬 올라마 | 로컬 LLM 추론 엔진(
) | |
🔍 크로마DB | 로깅 및 검색을 위한 벡터 데이터베이스 | |
🌐 패스트API | 대화형, 빠른 웹 인터페이스 | |
⚡ 유비콘 | FastAPI 백엔드를 구동하는 ASGI 서버 |
💡 이 프로젝트를 사용하신다면, 이 프로젝트를 가능하게 하는 업스트림 도구에 별점을 주거나 기여해 주시기 바랍니다.
이 저장소는 llama3.2:1b를 사용하는 로컬 rag-llm의 도움으로 생성되었습니다.
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
모델 컨텍스트 프로토콜을 통해 조직된 로컬 LLM을 사용하여 표 형식 데이터를 분석하고, 이상을 감지하고, 해석적 요약을 생성하는 로컬 에이전트 AI 파이프라인입니다.
Related MCP Servers
- -securityFlicense-qualityAn agentic AI system that orchestrates multiple specialized AI tools to perform business analytics and knowledge retrieval, allowing users to analyze data and access business information through natural language queries.Last updated -3
- -securityFlicense-qualityIntelligently analyzes codebases to enhance LLM prompts with relevant context, featuring adaptive context management and task detection to produce higher quality AI responses.Last updated -
- -securityAlicense-qualityAn AI-powered server that analyzes system log files to identify errors/warnings and recommend fixes using FastMCP, LangGraph ReAct agents, and Anthropic Claude.Last updated -1MIT License
- -securityAlicense-qualityProvides AI coding assistants with context optimization tools including targeted file analysis, intelligent terminal command execution with LLM-powered output extraction, and web research capabilities. Helps reduce token usage by extracting only relevant information instead of processing entire files and command outputs.Last updated -51645TypeScriptMIT License