cachly-mcp-server
cachly MCP 서버
cachly.dev 캐시 인스턴스를 GitHub Copilot, Claude, Cursor, Windsurf 및 기타 MCP 호환 AI 어시스턴트에서 직접 관리하세요.
🚀 제로 터치 설정 — 단 하나의 명령어
AI가 매번 전체 코드베이스를 다시 읽지 않도록 하세요. 단 하나의 명령어로 컨텍스트 메모리를 활성화하고 모든 편집기를 자동으로 구성할 수 있습니다:
CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server setup대화형 마법사가 다음 작업을 수행합니다:
cachly 계정으로 인증 (또는 JWT 입력 요청)
AI 브레인으로 사용할 캐시 인스턴스 선택
Cursor, Windsurf, VS Code, Claude Code 및 Continue.dev 자동 감지
감지된 모든 편집기에 올바른 MCP 구성 작성
CLAUDE.md생성/업데이트 (멱등성 보장 — 안전하게 재실행 가능)
결과: 파일 읽기 60% 감소, 세션 간 즉각적인 컨텍스트 유지, 재탐색 불필요.
비대화형 (CI / 스크립트 설정)
CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server init \
--instance-id your-instance-id \
--editor vscode수행 가능한 작업
연결 후 AI 어시스턴트에게 다음과 같이 말해보세요:
"Create a free cachly instance called my-app-cache"
"List all my cache instances"
"Get the connection string for instance abc-123"
"Delete my test-cache instance"사용 가능한 도구
🧠 AI 브레인 — 세션 및 메모리
도구 | 설명 |
| 전체 브리핑을 반환하는 단일 호출: 마지막 세션, 관련 교훈, 열린 실패, 브레인 상태. 모든 세션 시작 시 호출하세요. |
| 세션 요약, 변경된 파일, 지속 시간을 저장합니다. 모든 세션 종료 시 호출하세요. |
| 버그 수정이나 배포 후 구조화된 교훈을 저장합니다. 심각도, file_paths, 명령어, 태그를 지원합니다. 주제별로 중복을 제거합니다. |
| 주제에 대해 가장 잘 알려진 솔루션을 검색합니다 (호출 횟수 증가). |
| 향후 세션을 위해 분석이나 아키텍처 결과를 캐시합니다. |
| 정확한 키로 캐시된 컨텍스트를 검색합니다 (glob 지원: |
| 의미/키워드를 기반으로 모든 캐시된 컨텍스트를 의미론적으로 검색합니다. |
| 모든 캐시된 컨텍스트 항목을 나열합니다. |
| 오래된 컨텍스트를 삭제합니다. |
⚙️ 인스턴스 관리
도구 | 설명 |
| 모든 캐시 인스턴스 나열 |
| 새 인스턴스 생성 (무료 또는 유료 티어) |
| 특정 인스턴스에 대한 세부 정보 가져오기 |
|
|
| 인스턴스 영구 삭제 |
🗄️ 캐시 작업
도구 | 설명 |
| 실시간 캐시 작업 |
| 키 검사 |
| 메모리, 적중률, 초당 작업 수 |
| 대량 파이프라인 작업 |
| 분산 락 (Redlock-lite) |
| LLM 토큰 스트리밍 캐시 |
🔍 의미론적 및 AI
도구 | 설명 |
| 벡터 유사도 검색 (Speed/Business 티어) |
| 프롬프트를 의미론적 네임스페이스로 자동 분류 |
| 알려진 Q&A 쌍으로 의미론적 캐시 예열 |
| AI 의미론적 검색을 위해 로컬 소스 파일 인덱싱 |
| API 상태 + JWT 인증 정보 확인 |
설정
권장: npx를 통한 제로 터치 설정
CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server setup설치나 빌드 단계가 필요 없습니다. 마법사가 편집기를 자동으로 감지하고 모든 구성 파일을 작성합니다.
수동 구성
cachly.dev/settings → API 토큰에서 JWT 토큰을 받으세요.
Claude Code / Claude Desktop
{
"mcpServers": {
"cachly": {
"command": "npx",
"args": ["-y", "@cachly-dev/mcp-server"],
"env": { "CACHLY_JWT": "your-jwt-token-here" }
}
}
}Claude Code: 프로젝트의
.claude/mcp.json에 추가Claude Desktop (macOS):
~/Library/Application Support/Claude/claude_desktop_config.json
GitHub Copilot (VS Code)
.vscode/mcp.json에 추가:
{
"servers": {
"cachly": {
"type": "stdio",
"command": "npx",
"args": ["-y", "@cachly-dev/mcp-server"],
"env": { "CACHLY_JWT": "your-jwt-token-here" }
}
}
}그 다음: Ctrl/Cmd+Shift+P → "MCP: List Servers" → cachly 시작.
Cursor
.cursor/mcp.json에 추가:
{
"mcpServers": {
"cachly": {
"command": "npx",
"args": ["-y", "@cachly-dev/mcp-server"],
"env": { "CACHLY_JWT": "your-jwt-token-here" }
}
}
}Windsurf / Continue.dev
동일한 stdio/mcpServers 형식 — 각 MCP 구성 파일에 추가하세요.
환경 변수
변수 | 필수 | 기본값 | 설명 |
| ✅ | – | cachly.dev/settings에서 받은 Keycloak JWT |
| ❌ |
| 로컬 개발을 위한 재정의 |
예시 세션
User: Create a free cache instance for my OpenAI project
Copilot: I'll create a free cachly instance for you.
[calls create_instance(name="openai-cache", tier="free")]
✅ Instance **openai-cache** (FREE) created and provisioning started!
ID: `a1b2c3d4-...`
Status: provisioning
Use `get_connection_string` to get your Redis URL in ~30 seconds.
User: Get the connection string
Copilot: [calls get_connection_string(instance_id="a1b2c3d4-...")]
Connection string for openai-cache:
redis://:password@my-node.cachly.dev:30101
Environment variable:
REDIS_URL="redis://:password@my-node.cachly.dev:30101"로컬 개발
# Run against local API
CACHLY_JWT=your-token CACHLY_API_URL=http://localhost:3001 npm run dev실제 사용 사례
🧠 코드베이스 재읽기 중단 — "Thinking Cache"
문제: Copilot에게 코드베이스에 대해 물어볼 때마다 "Ich verschaffe mir einen Überblick über die Codebasis"를 실행하며 수백 개의 파일을 다시 읽습니다.
해결책: AI의 "사고" 결과를 캐시하세요:
You: "Analyze the authentication architecture"
AI: [reads 47 files, takes 30 seconds]
The auth uses Keycloak with JWT tokens. The flow is:
1. User hits /sign-in → NextAuth redirect
2. Keycloak validates credentials
3. JWT returned, stored in session
[calls remember_context("auth_architecture", "The auth uses Keycloak...")]
🧠 Context saved for future sessions.
--- Next day, new session ---
You: "How does auth work?"
AI: [calls smart_recall("auth")]
🧠 Found cached context:
The auth uses Keycloak with JWT tokens...
(No file reading needed — instant answer!)setup 마법사(이 README 상단 참조)가 세션 지침을 CLAUDE.md / .github/copilot-instructions.md에 자동으로 작성합니다 — 수동 편집이 필요 없습니다. npx @cachly-dev/mcp-server setup을 한 번만 실행하면 AI 어시스턴트가 모든 세션 시작 시 자동으로 session_start를 호출합니다.
1. AI 지원 개발 — "어떤 캐시를 사용 중인가요?"
여러 cachly 인스턴스를 사용하는 마이크로서비스를 구축 중입니다. AI 어시스턴트에게 직접 물어보세요:
You: "List all my cachly instances and their status"
AI: Using cachly_list_instances...
You have 3 instances:
1. prod-api (Pro, running) — redis://:***@prod.cachly.dev:30101
2. staging (Dev, running) — redis://:***@staging.cachly.dev:30102
3. ml-pipeline (Speed, running) — redis://:***@ml.cachly.dev:30103
Total MRR: €72/month2. 캐시 디버깅 — "적중률이 떨어지는 이유는 무엇인가요?"
의미론적 캐시 적중률이 밤새 떨어졌습니다. 편집기를 떠나지 않고 디버깅하세요:
You: "Check the analytics for my prod-api instance"
AI: Using cachly_semantic_stats...
⚠️ Hit rate dropped 23% in the last 24h (82% → 63%)
Anomaly detected: near-miss spike (+140%)
→ 47 queries are hitting similarity 0.80-0.84 (just below your 0.85 threshold)
Recommendation: Lower threshold to 0.82 to capture these near-misses.
You: "Do it"
AI: Using cachly_set_threshold... ✅ Threshold set to 0.82 for namespace cachly:sem3. 배포 캐시 예열 — "새 릴리스를 위해 캐시를 미리 채우세요"
새 버전을 배포한 후, 일반적인 쿼리로 의미론적 캐시를 예열하세요:
You: "Warm up the staging cache with our top 50 support questions"
AI: Using cachly_batch_index with your FAQ embeddings...
✅ Indexed 50 entries in 340ms (batch pipeline)
Namespace: cachly:sem:qa
Your cache is ready — first users will get instant responses.4. 비용 모니터링 — "얼마나 절약하고 있나요?"
IDE에서 직접 LLM 비용 절감액을 추적하세요:
You: "How much has cachly saved me this month?"
AI: Using cachly_semantic_stats...
📊 This month's savings:
- Total cache hits: 12,847
- Estimated savings: $384.21 (vs. direct LLM calls)
- Efficiency score: 84/100 (Grade: A)
- Best namespace: cachly:sem:qa (94% hit rate)5. CI 파이프라인 통합 — "배포 전 캐시 상태 확인"
배포 워크플로우에 캐시 상태 확인을 추가하세요:
You: "Check if any cache anomalies would block a deploy"
AI: Using cachly_analytics_anomalies...
✅ No critical anomalies detected.
1 info-level notice: stale cache in namespace "translations"
(12 near-misses/24h, 0 new entries)
Recommendation: Run warmup after deploy for translations namespace.
Deploy is safe to proceed.라이선스
MIT © cachly.dev
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/cachly-dev/cachly-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server