Skip to main content
Glama

cachly MCP 서버

cachly.dev 캐시 인스턴스를 GitHub Copilot, Claude, Cursor, Windsurf 및 기타 MCP 호환 AI 어시스턴트에서 직접 관리하세요.

🚀 제로 터치 설정 — 단 하나의 명령어

AI가 매번 전체 코드베이스를 다시 읽지 않도록 하세요. 단 하나의 명령어로 컨텍스트 메모리를 활성화하고 모든 편집기를 자동으로 구성할 수 있습니다:

CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server setup

대화형 마법사가 다음 작업을 수행합니다:

  1. cachly 계정으로 인증 (또는 JWT 입력 요청)

  2. AI 브레인으로 사용할 캐시 인스턴스 선택

  3. Cursor, Windsurf, VS Code, Claude Code 및 Continue.dev 자동 감지

  4. 감지된 모든 편집기에 올바른 MCP 구성 작성

  5. CLAUDE.md 생성/업데이트 (멱등성 보장 — 안전하게 재실행 가능)

결과: 파일 읽기 60% 감소, 세션 간 즉각적인 컨텍스트 유지, 재탐색 불필요.

비대화형 (CI / 스크립트 설정)

CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server init \
  --instance-id your-instance-id \
  --editor vscode

수행 가능한 작업

연결 후 AI 어시스턴트에게 다음과 같이 말해보세요:

"Create a free cachly instance called my-app-cache"
"List all my cache instances"
"Get the connection string for instance abc-123"
"Delete my test-cache instance"

사용 가능한 도구

🧠 AI 브레인 — 세션 및 메모리

도구

설명

session_start

전체 브리핑을 반환하는 단일 호출: 마지막 세션, 관련 교훈, 열린 실패, 브레인 상태. 모든 세션 시작 시 호출하세요.

session_end

세션 요약, 변경된 파일, 지속 시간을 저장합니다. 모든 세션 종료 시 호출하세요.

learn_from_attempts

버그 수정이나 배포 후 구조화된 교훈을 저장합니다. 심각도, file_paths, 명령어, 태그를 지원합니다. 주제별로 중복을 제거합니다.

recall_best_solution

주제에 대해 가장 잘 알려진 솔루션을 검색합니다 (호출 횟수 증가).

remember_context

향후 세션을 위해 분석이나 아키텍처 결과를 캐시합니다.

recall_context

정확한 키로 캐시된 컨텍스트를 검색합니다 (glob 지원: "file:*").

smart_recall

의미/키워드를 기반으로 모든 캐시된 컨텍스트를 의미론적으로 검색합니다.

list_remembered

모든 캐시된 컨텍스트 항목을 나열합니다.

forget_context

오래된 컨텍스트를 삭제합니다.

⚙️ 인스턴스 관리

도구

설명

list_instances

모든 캐시 인스턴스 나열

create_instance

새 인스턴스 생성 (무료 또는 유료 티어)

get_instance

특정 인스턴스에 대한 세부 정보 가져오기

get_connection_string

redis:// 연결 URL 가져오기

delete_instance

인스턴스 영구 삭제

🗄️ 캐시 작업

도구

설명

cache_get / cache_set / cache_delete

실시간 캐시 작업

cache_exists / cache_ttl / cache_keys

키 검사

cache_stats

메모리, 적중률, 초당 작업 수

cache_mget / cache_mset

대량 파이프라인 작업

cache_lock_acquire / cache_lock_release

분산 락 (Redlock-lite)

cache_stream_set / cache_stream_get

LLM 토큰 스트리밍 캐시

🔍 의미론적 및 AI

도구

설명

semantic_search

벡터 유사도 검색 (Speed/Business 티어)

detect_namespace

프롬프트를 의미론적 네임스페이스로 자동 분류

cache_warmup

알려진 Q&A 쌍으로 의미론적 캐시 예열

index_project

AI 의미론적 검색을 위해 로컬 소스 파일 인덱싱

get_api_status

API 상태 + JWT 인증 정보 확인

설정

권장: npx를 통한 제로 터치 설정

CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server setup

설치나 빌드 단계가 필요 없습니다. 마법사가 편집기를 자동으로 감지하고 모든 구성 파일을 작성합니다.

수동 구성

cachly.dev/settings → API 토큰에서 JWT 토큰을 받으세요.

Claude Code / Claude Desktop

{
  "mcpServers": {
    "cachly": {
      "command": "npx",
      "args": ["-y", "@cachly-dev/mcp-server"],
      "env": { "CACHLY_JWT": "your-jwt-token-here" }
    }
  }
}
  • Claude Code: 프로젝트의 .claude/mcp.json에 추가

  • Claude Desktop (macOS): ~/Library/Application Support/Claude/claude_desktop_config.json

GitHub Copilot (VS Code)

.vscode/mcp.json에 추가:

{
  "servers": {
    "cachly": {
      "type": "stdio",
      "command": "npx",
      "args": ["-y", "@cachly-dev/mcp-server"],
      "env": { "CACHLY_JWT": "your-jwt-token-here" }
    }
  }
}

그 다음: Ctrl/Cmd+Shift+P → "MCP: List Servers"cachly 시작.

Cursor

.cursor/mcp.json에 추가:

{
  "mcpServers": {
    "cachly": {
      "command": "npx",
      "args": ["-y", "@cachly-dev/mcp-server"],
      "env": { "CACHLY_JWT": "your-jwt-token-here" }
    }
  }
}

Windsurf / Continue.dev

동일한 stdio/mcpServers 형식 — 각 MCP 구성 파일에 추가하세요.

환경 변수

변수

필수

기본값

설명

CACHLY_JWT

cachly.dev/settings에서 받은 Keycloak JWT

CACHLY_API_URL

https://api.cachly.dev

로컬 개발을 위한 재정의

예시 세션

User: Create a free cache instance for my OpenAI project

Copilot: I'll create a free cachly instance for you.
[calls create_instance(name="openai-cache", tier="free")]

✅ Instance **openai-cache** (FREE) created and provisioning started!
   ID: `a1b2c3d4-...`
   Status: provisioning

Use `get_connection_string` to get your Redis URL in ~30 seconds.

User: Get the connection string

Copilot: [calls get_connection_string(instance_id="a1b2c3d4-...")]

Connection string for openai-cache:
  redis://:password@my-node.cachly.dev:30101

Environment variable:
  REDIS_URL="redis://:password@my-node.cachly.dev:30101"

로컬 개발

# Run against local API
CACHLY_JWT=your-token CACHLY_API_URL=http://localhost:3001 npm run dev

실제 사용 사례

🧠 코드베이스 재읽기 중단 — "Thinking Cache"

문제: Copilot에게 코드베이스에 대해 물어볼 때마다 "Ich verschaffe mir einen Überblick über die Codebasis"를 실행하며 수백 개의 파일을 다시 읽습니다.

해결책: AI의 "사고" 결과를 캐시하세요:

You: "Analyze the authentication architecture"
AI:  [reads 47 files, takes 30 seconds]
     The auth uses Keycloak with JWT tokens. The flow is:
     1. User hits /sign-in → NextAuth redirect
     2. Keycloak validates credentials
     3. JWT returned, stored in session
     
     [calls remember_context("auth_architecture", "The auth uses Keycloak...")]
     🧠 Context saved for future sessions.

--- Next day, new session ---

You: "How does auth work?"
AI:  [calls smart_recall("auth")]
     🧠 Found cached context:
     The auth uses Keycloak with JWT tokens...
     
     (No file reading needed — instant answer!)

setup 마법사(이 README 상단 참조)가 세션 지침을 CLAUDE.md / .github/copilot-instructions.md에 자동으로 작성합니다 — 수동 편집이 필요 없습니다. npx @cachly-dev/mcp-server setup을 한 번만 실행하면 AI 어시스턴트가 모든 세션 시작 시 자동으로 session_start를 호출합니다.

1. AI 지원 개발 — "어떤 캐시를 사용 중인가요?"

여러 cachly 인스턴스를 사용하는 마이크로서비스를 구축 중입니다. AI 어시스턴트에게 직접 물어보세요:

You: "List all my cachly instances and their status"
AI:  Using cachly_list_instances...
     
     You have 3 instances:
     1. prod-api (Pro, running) — redis://:***@prod.cachly.dev:30101
     2. staging (Dev, running) — redis://:***@staging.cachly.dev:30102  
     3. ml-pipeline (Speed, running) — redis://:***@ml.cachly.dev:30103
     
     Total MRR: €72/month

2. 캐시 디버깅 — "적중률이 떨어지는 이유는 무엇인가요?"

의미론적 캐시 적중률이 밤새 떨어졌습니다. 편집기를 떠나지 않고 디버깅하세요:

You: "Check the analytics for my prod-api instance"
AI:  Using cachly_semantic_stats...
     
     ⚠️ Hit rate dropped 23% in the last 24h (82% → 63%)
     
     Anomaly detected: near-miss spike (+140%)
     → 47 queries are hitting similarity 0.80-0.84 (just below your 0.85 threshold)
     
     Recommendation: Lower threshold to 0.82 to capture these near-misses.
     
You: "Do it"
AI:  Using cachly_set_threshold... ✅ Threshold set to 0.82 for namespace cachly:sem

3. 배포 캐시 예열 — "새 릴리스를 위해 캐시를 미리 채우세요"

새 버전을 배포한 후, 일반적인 쿼리로 의미론적 캐시를 예열하세요:

You: "Warm up the staging cache with our top 50 support questions"
AI:  Using cachly_batch_index with your FAQ embeddings...
     
     ✅ Indexed 50 entries in 340ms (batch pipeline)
     Namespace: cachly:sem:qa
     
     Your cache is ready — first users will get instant responses.

4. 비용 모니터링 — "얼마나 절약하고 있나요?"

IDE에서 직접 LLM 비용 절감액을 추적하세요:

You: "How much has cachly saved me this month?"
AI:  Using cachly_semantic_stats...
     
     📊 This month's savings:
     - Total cache hits: 12,847
     - Estimated savings: $384.21 (vs. direct LLM calls)
     - Efficiency score: 84/100 (Grade: A)
     - Best namespace: cachly:sem:qa (94% hit rate)

5. CI 파이프라인 통합 — "배포 전 캐시 상태 확인"

배포 워크플로우에 캐시 상태 확인을 추가하세요:

You: "Check if any cache anomalies would block a deploy"
AI:  Using cachly_analytics_anomalies...
     
     ✅ No critical anomalies detected.
     1 info-level notice: stale cache in namespace "translations" 
     (12 near-misses/24h, 0 new entries)
     
     Recommendation: Run warmup after deploy for translations namespace.
     Deploy is safe to proceed.

라이선스

MIT © cachly.dev

Install Server
A
security – no known vulnerabilities
F
license - not found
A
quality - A tier

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/cachly-dev/cachly-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server