Skip to main content
Glama
Lohithry

DivLens MCP

by Lohithry

DivLens MCP란 무엇인가요?

DivLens MCP는 Rust로 작성된 고성능 Model Context Protocol (MCP) 서버입니다.

AI 어시스턴트와 사용자의 머신 사이의 간극을 메워주며, Claude, Cursor, Windsurf 및 기타 MCP 호환 에이전트가 하드웨어 센서, 스토리지 메트릭, 네트워크 진단, 프로세스 트리, 개발자 런타임, 시스템 로그 등에 대해 실시간 구조화된 액세스를 할 수 있도록 합니다.

클라우드도, API 키도, 복잡한 설정도 필요 없습니다. 빌드하고 실행하기만 하면 됩니다.

"Why is my Mac slow?" → Claude calls get_live_metrics() → Instant answer.
"Is my SSD healthy?"  → Claude calls get_hardware_diagnostics() → SMART data returned.
"What's eating disk?"  → Claude calls get_advanced_storage_stats() → Largest files listed.

✦ 17가지 진단 도구

카테고리

도구

반환 내용

성능

get_live_metrics

CPU %, RAM, 스왑, 차단된 프로세스, 가동 시간

성능

get_process_list

PID별 CPU/RAM 상위 프로세스

💾 스토리지

get_storage_health

마운트 지점별 여유/사용/전체 용량

💾 스토리지

scan_storage_inventory

크기별 전체 파일 유형 인벤토리

💾 스토리지

get_file_type_summary

확장자별 파일 개수 및 크기

💾 스토리지

get_specific_file_type

특정 확장자와 일치하는 모든 파일

💾 스토리지

get_advanced_storage_stats

상위 50개 대용량 파일 + 오래된 데이터 분석

💾 스토리지

get_storage_diagnostics

IOPS, 읽기/쓰기 지연 시간, SMART 상태

🖥️ 하드웨어

get_hardware_diagnostics

CPU/GPU 사양, 배터리 %, 온도, SMART

🌐 네트워크

get_network_diagnostics

처리량, 활성 연결, 신호

🌐 네트워크

get_network_config

어댑터별 IP, DNS, 인터페이스 구성

🔬 식별

get_system_dna

OS, 호스트 이름, 가동 시간, 머신 지문

🛠️ 개발 스택

get_dev_stack

Node, Python, Rust, Go, Java 런타임 + 패키지

🛠️ 개발 스택

get_drivers

커널 모듈 및 장치 드라이버

📂 유틸리티

scan_directory

크기를 포함한 재귀적 디렉토리 목록

🧠 메모리

recall_memory

과거 AI 진단에 대한 의미론적 검색

📋 로그

get_system_logs

패턴별로 클러스터링된 최근 OS/커널 오류


🚀 설치 — 한 번의 명령어로, 모든 플랫폼에서

Rust가 필요 없습니다. 컴파일도, 수동 설정 편집도 필요 없습니다. 설치 프로그램이 미리 빌드된 바이너리를 다운로드하고 AI 클라이언트를 자동으로 구성합니다.

macOS & Linux

curl -fsSL https://raw.githubusercontent.com/Lohithry/divlens-mcp/main/install.sh | bash

Windows (PowerShell — 관리자 권한 불필요)

irm https://raw.githubusercontent.com/Lohithry/divlens-mcp/main/install.ps1 | iex

설치 프로그램은 다음을 수행합니다:

  • ✅ OS 및 칩 감지 (Apple Silicon / Intel / Linux / Windows)

  • ✅ GitHub 릴리스에서 올바른 미리 빌드된 바이너리 다운로드

  • ✅ SHA-256 체크섬 확인

  • ✅ 관리자 권한 없이 PATH에 설치

  • Claude Desktop, Cursor, Windsurf, Antigravity 자동 구성

  • ✅ 완료 전 서버 작동 테스트

그런 다음 AI 클라이언트를 다시 시작하고 *"지금 내 CPU를 사용하고 있는 것이 무엇인가요?"*라고 물어보세요.


소스에서 빌드 (고급)

Rust 1.82+ 버전이 필요합니다.

git clone https://github.com/Lohithry/divlens-mcp.git
cd divlens-mcp/apps/core
cargo build --release
./target/release/divlens-core --mcp

AI에 연결하기

Claude Desktop

설정 파일: ~/Library/Application Support/Claude/claude_desktop_config.json (macOS) 또는 %APPDATA%\Claude\claude_desktop_config.json (Windows)

{
  "mcpServers": {
    "divlens": {
      "command": "/usr/local/bin/divlens-core",
      "args": ["--mcp"]
    }
  }
}

Claude Desktop을 종료하고 다시 실행하세요. 🔌 플러그 아이콘이 연결을 확인해 줍니다.

Cursor

설정 파일: ~/.cursor/mcp.json

{
  "mcpServers": {
    "divlens": {
      "command": "/usr/local/bin/divlens-core",
      "args": ["--mcp"]
    }
  }
}

Cmd+Shift+PReload Window

Windsurf

설정 파일: ~/.codeium/windsurf/mcp_config.json

{
  "mcpServers": {
    "divlens": {
      "command": "/usr/local/bin/divlens-core",
      "args": ["--mcp"]
    }
  }
}

전체 설정 세부 정보는 **DEPLOYMENT.md**를 참조하세요.


작동 원리

  ┌─────────────────────────────────────────┐
  │   AI Client  (Claude / Cursor / etc.)   │
  │         LLM reasoning lives here        │
  └──────────────────┬──────────────────────┘
                     │  JSON-RPC 2.0  (stdio)
                     ▼
  ┌─────────────────────────────────────────┐
  │          divlens-core  (Rust)           │
  │                                         │
  │  ┌───────────────┐  ┌───────────────┐   │
  │  │  MCP Layer    │  │  17 Tools     │   │
  │  │  (JSON-RPC)   │  │  (Rust + OS)  │   │
  │  └───────────────┘  └───────────────┘   │
  │  ┌───────────────┐  ┌───────────────┐   │
  │  │  SQLite Cache │  │  Native APIs  │   │
  │  │  (sysinfo/OS) │  │  (IOKit/WMI)  │   │
  │  └───────────────┘  └───────────────┘   │
  └─────────────────────────────────────────┘

      Zero cloud.  Zero API keys.  100% local.

전송: 모든 MCP 메시지는 stdio를 통한 줄바꿈으로 구분된 JSON-RPC 2.0 객체입니다. AI 로직: DivLens는 LLM 추론을 실행하지 않으며, 원시 시스템 데이터를 수집하고 반환하기만 합니다. 개인정보 보호: 모든 데이터는 사용자의 머신에 머무릅니다. 외부로 전송되는 데이터는 없습니다.


프로젝트 구조

divlens-mcp/
└── apps/
    └── core/                      # Rust MCP engine
        ├── src/
        │   ├── tools/             # 17 tool implementations
        │   ├── mcp/               # JSON-RPC 2.0 protocol handler
        │   ├── mcp_server.rs      # stdio transport loop
        │   ├── collectors/        # Native OS data collectors
        │   │   ├── volatile/      # CPU, RAM, network (live)
        │   │   ├── persistent/    # Storage, hardware (cached)
        │   │   └── ondemand/      # Drivers, logs, packages
        │   ├── modules/           # Core business logic
        │   ├── db/                # SQLite caching layer
        │   ├── models/            # Shared data types
        │   └── utils/             # Shell env rehydration
        ├── Cargo.toml
        └── env.example

선택 사항: 의미론적 메모리

vector-memory 기능을 활성화하면 로컬 ONNX 임베딩 모델을 사용하여 recall_memory에 진정한 의미론적 검색 기능을 제공할 수 있습니다 (클라우드 및 API 키 불필요):

cargo build --release --features vector-memory

활성화되면 DivLens는 로컬 LanceDB 벡터 저장소를 생성하고 fastembed를 사용하여 과거 진단을 의미론적으로 임베딩하고 불러옵니다.

비활성화된 경우(기본값), recall_memory는 빈 목록을 반환하며 기능상 문제는 없습니다.


서버 확인

클라이언트 없이 MCP 와이어 프로토콜을 테스트하세요:

# Initialize handshake
echo '{"jsonrpc":"2.0","id":1,"method":"initialize","params":{"protocolVersion":"2024-11-05","clientInfo":{"name":"test","version":"0.1"}}}' \
  | divlens-core --mcp

# Call a tool directly
echo '{"jsonrpc":"2.0","id":2,"method":"tools/call","params":{"name":"get_live_metrics","arguments":{}}}' \
  | divlens-core --mcp

라이선스

Apache License, Version 2.0에 따라 라이선스가 부여됩니다. 전체 텍스트는 LICENSE를 참조하세요.

Copyright © 2024 DivLens Contributors.


F
license - not found
-
quality - not tested
B
maintenance

Maintenance

Maintainers
Response time
Release cycle
1Releases (12mo)

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lohithry/divlens-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server