DivLens MCP
DivLens MCP란 무엇인가요?
DivLens MCP는 Rust로 작성된 고성능 Model Context Protocol (MCP) 서버입니다.
AI 어시스턴트와 사용자의 머신 사이의 간극을 메워주며, Claude, Cursor, Windsurf 및 기타 MCP 호환 에이전트가 하드웨어 센서, 스토리지 메트릭, 네트워크 진단, 프로세스 트리, 개발자 런타임, 시스템 로그 등에 대해 실시간 구조화된 액세스를 할 수 있도록 합니다.
클라우드도, API 키도, 복잡한 설정도 필요 없습니다. 빌드하고 실행하기만 하면 됩니다.
"Why is my Mac slow?" → Claude calls get_live_metrics() → Instant answer.
"Is my SSD healthy?" → Claude calls get_hardware_diagnostics() → SMART data returned.
"What's eating disk?" → Claude calls get_advanced_storage_stats() → Largest files listed.✦ 17가지 진단 도구
카테고리 | 도구 | 반환 내용 |
⚡ 성능 |
| CPU %, RAM, 스왑, 차단된 프로세스, 가동 시간 |
⚡ 성능 |
| PID별 CPU/RAM 상위 프로세스 |
💾 스토리지 |
| 마운트 지점별 여유/사용/전체 용량 |
💾 스토리지 |
| 크기별 전체 파일 유형 인벤토리 |
💾 스토리지 |
| 확장자별 파일 개수 및 크기 |
💾 스토리지 |
| 특정 확장자와 일치하는 모든 파일 |
💾 스토리지 |
| 상위 50개 대용량 파일 + 오래된 데이터 분석 |
💾 스토리지 |
| IOPS, 읽기/쓰기 지연 시간, SMART 상태 |
🖥️ 하드웨어 |
| CPU/GPU 사양, 배터리 %, 온도, SMART |
🌐 네트워크 |
| 처리량, 활성 연결, 신호 |
🌐 네트워크 |
| 어댑터별 IP, DNS, 인터페이스 구성 |
🔬 식별 |
| OS, 호스트 이름, 가동 시간, 머신 지문 |
🛠️ 개발 스택 |
| Node, Python, Rust, Go, Java 런타임 + 패키지 |
🛠️ 개발 스택 |
| 커널 모듈 및 장치 드라이버 |
📂 유틸리티 |
| 크기를 포함한 재귀적 디렉토리 목록 |
🧠 메모리 |
| 과거 AI 진단에 대한 의미론적 검색 |
📋 로그 |
| 패턴별로 클러스터링된 최근 OS/커널 오류 |
🚀 설치 — 한 번의 명령어로, 모든 플랫폼에서
Rust가 필요 없습니다. 컴파일도, 수동 설정 편집도 필요 없습니다. 설치 프로그램이 미리 빌드된 바이너리를 다운로드하고 AI 클라이언트를 자동으로 구성합니다.
macOS & Linux
curl -fsSL https://raw.githubusercontent.com/Lohithry/divlens-mcp/main/install.sh | bashWindows (PowerShell — 관리자 권한 불필요)
irm https://raw.githubusercontent.com/Lohithry/divlens-mcp/main/install.ps1 | iex설치 프로그램은 다음을 수행합니다:
✅ OS 및 칩 감지 (Apple Silicon / Intel / Linux / Windows)
✅ GitHub 릴리스에서 올바른 미리 빌드된 바이너리 다운로드
✅ SHA-256 체크섬 확인
✅ 관리자 권한 없이 PATH에 설치
✅ Claude Desktop, Cursor, Windsurf, Antigravity 자동 구성
✅ 완료 전 서버 작동 테스트
그런 다음 AI 클라이언트를 다시 시작하고 *"지금 내 CPU를 사용하고 있는 것이 무엇인가요?"*라고 물어보세요.
소스에서 빌드 (고급)
Rust 1.82+ 버전이 필요합니다.
git clone https://github.com/Lohithry/divlens-mcp.git
cd divlens-mcp/apps/core
cargo build --release
./target/release/divlens-core --mcpAI에 연결하기
Claude Desktop
설정 파일:
~/Library/Application Support/Claude/claude_desktop_config.json(macOS) 또는%APPDATA%\Claude\claude_desktop_config.json(Windows)
{
"mcpServers": {
"divlens": {
"command": "/usr/local/bin/divlens-core",
"args": ["--mcp"]
}
}
}Claude Desktop을 종료하고 다시 실행하세요. 🔌 플러그 아이콘이 연결을 확인해 줍니다.
Cursor
설정 파일:
~/.cursor/mcp.json
{
"mcpServers": {
"divlens": {
"command": "/usr/local/bin/divlens-core",
"args": ["--mcp"]
}
}
}Cmd+Shift+P → Reload Window
Windsurf
설정 파일:
~/.codeium/windsurf/mcp_config.json
{
"mcpServers": {
"divlens": {
"command": "/usr/local/bin/divlens-core",
"args": ["--mcp"]
}
}
}전체 설정 세부 정보는 **DEPLOYMENT.md**를 참조하세요.
작동 원리
┌─────────────────────────────────────────┐
│ AI Client (Claude / Cursor / etc.) │
│ LLM reasoning lives here │
└──────────────────┬──────────────────────┘
│ JSON-RPC 2.0 (stdio)
▼
┌─────────────────────────────────────────┐
│ divlens-core (Rust) │
│ │
│ ┌───────────────┐ ┌───────────────┐ │
│ │ MCP Layer │ │ 17 Tools │ │
│ │ (JSON-RPC) │ │ (Rust + OS) │ │
│ └───────────────┘ └───────────────┘ │
│ ┌───────────────┐ ┌───────────────┐ │
│ │ SQLite Cache │ │ Native APIs │ │
│ │ (sysinfo/OS) │ │ (IOKit/WMI) │ │
│ └───────────────┘ └───────────────┘ │
└─────────────────────────────────────────┘
Zero cloud. Zero API keys. 100% local.전송: 모든 MCP 메시지는 stdio를 통한 줄바꿈으로 구분된 JSON-RPC 2.0 객체입니다. AI 로직: DivLens는 LLM 추론을 실행하지 않으며, 원시 시스템 데이터를 수집하고 반환하기만 합니다. 개인정보 보호: 모든 데이터는 사용자의 머신에 머무릅니다. 외부로 전송되는 데이터는 없습니다.
프로젝트 구조
divlens-mcp/
└── apps/
└── core/ # Rust MCP engine
├── src/
│ ├── tools/ # 17 tool implementations
│ ├── mcp/ # JSON-RPC 2.0 protocol handler
│ ├── mcp_server.rs # stdio transport loop
│ ├── collectors/ # Native OS data collectors
│ │ ├── volatile/ # CPU, RAM, network (live)
│ │ ├── persistent/ # Storage, hardware (cached)
│ │ └── ondemand/ # Drivers, logs, packages
│ ├── modules/ # Core business logic
│ ├── db/ # SQLite caching layer
│ ├── models/ # Shared data types
│ └── utils/ # Shell env rehydration
├── Cargo.toml
└── env.example선택 사항: 의미론적 메모리
vector-memory 기능을 활성화하면 로컬 ONNX 임베딩 모델을 사용하여 recall_memory에 진정한 의미론적 검색 기능을 제공할 수 있습니다 (클라우드 및 API 키 불필요):
cargo build --release --features vector-memory활성화되면 DivLens는 로컬 LanceDB 벡터 저장소를 생성하고 fastembed를 사용하여 과거 진단을 의미론적으로 임베딩하고 불러옵니다.
비활성화된 경우(기본값), recall_memory는 빈 목록을 반환하며 기능상 문제는 없습니다.
서버 확인
클라이언트 없이 MCP 와이어 프로토콜을 테스트하세요:
# Initialize handshake
echo '{"jsonrpc":"2.0","id":1,"method":"initialize","params":{"protocolVersion":"2024-11-05","clientInfo":{"name":"test","version":"0.1"}}}' \
| divlens-core --mcp
# Call a tool directly
echo '{"jsonrpc":"2.0","id":2,"method":"tools/call","params":{"name":"get_live_metrics","arguments":{}}}' \
| divlens-core --mcp라이선스
Apache License, Version 2.0에 따라 라이선스가 부여됩니다. 전체 텍스트는 LICENSE를 참조하세요.
Copyright © 2024 DivLens Contributors.
This server cannot be installed
Maintenance
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lohithry/divlens-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server