cachly-mcp-server
Servidor MCP cachly
Gestiona tus instancias de caché de cachly.dev directamente desde GitHub Copilot, Claude, Cursor, Windsurf y cualquier otro asistente de IA compatible con MCP.
🚀 Configuración sin intervención: un solo comando
Evita que tu IA vuelva a leer toda tu base de código cada vez. Un solo comando habilita la memoria de contexto y configura todos tus editores automáticamente:
CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server setupEl asistente interactivo:
Se autenticará con tu cuenta de cachly (o solicitará el JWT).
Te permitirá elegir qué instancia de caché usar como tu Cerebro de IA.
Detectará automáticamente Cursor, Windsurf, VS Code, Claude Code y Continue.dev.
Escribirá la configuración MCP correcta para cada editor detectado.
Creará/actualizará
CLAUDE.md(idempotente: seguro para volver a ejecutar).
Resultado: 60% menos de lecturas de archivos, contexto instantáneo entre sesiones, cero redescubrimiento.
No interactivo (CI / configuración mediante scripts)
CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server init \
--instance-id your-instance-id \
--editor vscodeQué puedes hacer
Una vez conectado, simplemente habla con tu asistente de IA:
"Create a free cachly instance called my-app-cache"
"List all my cache instances"
"Get the connection string for instance abc-123"
"Delete my test-cache instance"Herramientas disponibles
🧠 Cerebro de IA: Sesión y Memoria
Herramienta | Descripción |
| Llamada única que devuelve un resumen completo: última sesión, lecciones relevantes, fallos abiertos, salud del cerebro. Llámala al inicio de cada sesión. |
| Guarda el resumen de la sesión, archivos cambiados, duración. Llámala al final de cada sesión. |
| Almacena lecciones estructuradas después de cualquier corrección de errores o despliegue. Admite gravedad, rutas de archivo, comandos, etiquetas. Elimina duplicados por tema. |
| Recupera la mejor solución conocida para un tema (incrementa el contador de recuperación). |
| Almacena en caché cualquier análisis o hallazgo de arquitectura para futuras sesiones. |
| Recupera contexto almacenado en caché por clave exacta (admite glob: |
| Búsqueda semántica en todo el contexto almacenado en caché por significado/palabras clave. |
| Lista todas las entradas de contexto almacenadas en caché. |
| Elimina contexto obsoleto. |
⚙️ Gestión de instancias
Herramienta | Descripción |
| Lista todas tus instancias de caché |
| Crea una nueva instancia (nivel gratuito o de pago) |
| Obtiene detalles de una instancia específica |
| Obtiene la URL de conexión |
| Elimina permanentemente una instancia |
🗄️ Operaciones de caché
Herramienta | Descripción |
| Operaciones de caché en vivo |
| Inspección de claves |
| Memoria, tasa de aciertos, ops/seg |
| Operaciones de canalización masiva |
| Bloqueos distribuidos (Redlock-lite) |
| Caché de streaming de tokens LLM |
🔍 Semántica e IA
Herramienta | Descripción |
| Búsqueda de similitud vectorial (nivel Speed/Business) |
| Clasifica automáticamente el prompt en un espacio de nombres semántico |
| Precalienta la caché semántica con pares de preguntas y respuestas conocidos |
| Indexa archivos fuente locales para búsqueda semántica de IA |
| Comprueba el estado de la API + información de autenticación JWT |
Configuración
Recomendado: Sin intervención mediante npx
CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server setupSin instalación, sin paso de compilación. El asistente detecta automáticamente tus editores y escribe todos los archivos de configuración.
Configuración manual
Obtén tu token JWT en cachly.dev/settings → API Tokens.
Claude Code / Claude Desktop
{
"mcpServers": {
"cachly": {
"command": "npx",
"args": ["-y", "@cachly-dev/mcp-server"],
"env": { "CACHLY_JWT": "your-jwt-token-here" }
}
}
}Claude Code: añade a
.claude/mcp.jsonen tu proyectoClaude Desktop (macOS):
~/Library/Application Support/Claude/claude_desktop_config.json
GitHub Copilot (VS Code)
Añade a .vscode/mcp.json:
{
"servers": {
"cachly": {
"type": "stdio",
"command": "npx",
"args": ["-y", "@cachly-dev/mcp-server"],
"env": { "CACHLY_JWT": "your-jwt-token-here" }
}
}
}Luego: Ctrl/Cmd+Shift+P → "MCP: List Servers" → inicia cachly.
Cursor
Añade a .cursor/mcp.json:
{
"mcpServers": {
"cachly": {
"command": "npx",
"args": ["-y", "@cachly-dev/mcp-server"],
"env": { "CACHLY_JWT": "your-jwt-token-here" }
}
}
}Windsurf / Continue.dev
Mismo formato stdio/mcpServers: añádelo a su respectivo archivo de configuración MCP.
Variables de entorno
Variable | Requerido | Predeterminado | Descripción |
| ✅ | – | Tu JWT de Keycloak desde cachly.dev/settings |
| ❌ |
| Sustitución para desarrollo local |
Sesión de ejemplo
User: Create a free cache instance for my OpenAI project
Copilot: I'll create a free cachly instance for you.
[calls create_instance(name="openai-cache", tier="free")]
✅ Instance **openai-cache** (FREE) created and provisioning started!
ID: `a1b2c3d4-...`
Status: provisioning
Use `get_connection_string` to get your Redis URL in ~30 seconds.
User: Get the connection string
Copilot: [calls get_connection_string(instance_id="a1b2c3d4-...")]
Connection string for openai-cache:
redis://:password@my-node.cachly.dev:30101
Environment variable:
REDIS_URL="redis://:password@my-node.cachly.dev:30101"Desarrollo local
# Run against local API
CACHLY_JWT=your-token CACHLY_API_URL=http://localhost:3001 npm run devCasos de uso en el mundo real
🧠 Deja de releer tu base de código: "Caché de pensamiento"
El problema: Cada vez que le preguntas a Copilot sobre tu base de código, ejecuta "Ich verschaffe mir einen Überblick über die Codebasis" y vuelve a leer cientos de archivos.
La solución: Almacena en caché los resultados del "pensamiento" de tu IA:
You: "Analyze the authentication architecture"
AI: [reads 47 files, takes 30 seconds]
The auth uses Keycloak with JWT tokens. The flow is:
1. User hits /sign-in → NextAuth redirect
2. Keycloak validates credentials
3. JWT returned, stored in session
[calls remember_context("auth_architecture", "The auth uses Keycloak...")]
🧠 Context saved for future sessions.
--- Next day, new session ---
You: "How does auth work?"
AI: [calls smart_recall("auth")]
🧠 Found cached context:
The auth uses Keycloak with JWT tokens...
(No file reading needed — instant answer!)El asistente de setup (ver al principio de este README) escribe las instrucciones de sesión automáticamente en tu CLAUDE.md / .github/copilot-instructions.md: no se necesita edición manual. Simplemente ejecuta npx @cachly-dev/mcp-server setup una vez y tu asistente de IA llamará a session_start al inicio de cada sesión automáticamente.
1. Desarrollo asistido por IA: "¿Qué cachés estoy usando?"
Estás creando un microservicio que usa múltiples instancias de cachly. Pregúntale a tu asistente de IA directamente:
You: "List all my cachly instances and their status"
AI: Using cachly_list_instances...
You have 3 instances:
1. prod-api (Pro, running) — redis://:***@prod.cachly.dev:30101
2. staging (Dev, running) — redis://:***@staging.cachly.dev:30102
3. ml-pipeline (Speed, running) — redis://:***@ml.cachly.dev:30103
Total MRR: €72/month2. Depuración de caché: "¿Por qué está cayendo mi tasa de aciertos?"
Tu tasa de aciertos de caché semántica cayó durante la noche. Depúralo sin salir de tu editor:
You: "Check the analytics for my prod-api instance"
AI: Using cachly_semantic_stats...
⚠️ Hit rate dropped 23% in the last 24h (82% → 63%)
Anomaly detected: near-miss spike (+140%)
→ 47 queries are hitting similarity 0.80-0.84 (just below your 0.85 threshold)
Recommendation: Lower threshold to 0.82 to capture these near-misses.
You: "Do it"
AI: Using cachly_set_threshold... ✅ Threshold set to 0.82 for namespace cachly:sem3. Precalentamiento de caché de despliegue: "Prellenar la caché para la nueva versión"
Después de desplegar una nueva versión, calienta la caché semántica con consultas comunes:
You: "Warm up the staging cache with our top 50 support questions"
AI: Using cachly_batch_index with your FAQ embeddings...
✅ Indexed 50 entries in 340ms (batch pipeline)
Namespace: cachly:sem:qa
Your cache is ready — first users will get instant responses.4. Monitoreo de costos: "¿Cuánto estoy ahorrando?"
Realiza un seguimiento de tus ahorros en costos de LLM directamente en tu IDE:
You: "How much has cachly saved me this month?"
AI: Using cachly_semantic_stats...
📊 This month's savings:
- Total cache hits: 12,847
- Estimated savings: $384.21 (vs. direct LLM calls)
- Efficiency score: 84/100 (Grade: A)
- Best namespace: cachly:sem:qa (94% hit rate)5. Integración de canalización CI: "Comprobar la salud de la caché antes de desplegar"
Añade comprobaciones de salud de caché a tu flujo de trabajo de despliegue:
You: "Check if any cache anomalies would block a deploy"
AI: Using cachly_analytics_anomalies...
✅ No critical anomalies detected.
1 info-level notice: stale cache in namespace "translations"
(12 near-misses/24h, 0 new entries)
Recommendation: Run warmup after deploy for translations namespace.
Deploy is safe to proceed.Licencia
MIT © cachly.dev
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/cachly-dev/cachly-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server