Skip to main content
Glama

Servidor MCP cachly

Gestiona tus instancias de caché de cachly.dev directamente desde GitHub Copilot, Claude, Cursor, Windsurf y cualquier otro asistente de IA compatible con MCP.

🚀 Configuración sin intervención: un solo comando

Evita que tu IA vuelva a leer toda tu base de código cada vez. Un solo comando habilita la memoria de contexto y configura todos tus editores automáticamente:

CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server setup

El asistente interactivo:

  1. Se autenticará con tu cuenta de cachly (o solicitará el JWT).

  2. Te permitirá elegir qué instancia de caché usar como tu Cerebro de IA.

  3. Detectará automáticamente Cursor, Windsurf, VS Code, Claude Code y Continue.dev.

  4. Escribirá la configuración MCP correcta para cada editor detectado.

  5. Creará/actualizará CLAUDE.md (idempotente: seguro para volver a ejecutar).

Resultado: 60% menos de lecturas de archivos, contexto instantáneo entre sesiones, cero redescubrimiento.

No interactivo (CI / configuración mediante scripts)

CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server init \
  --instance-id your-instance-id \
  --editor vscode

Qué puedes hacer

Una vez conectado, simplemente habla con tu asistente de IA:

"Create a free cachly instance called my-app-cache"
"List all my cache instances"
"Get the connection string for instance abc-123"
"Delete my test-cache instance"

Herramientas disponibles

🧠 Cerebro de IA: Sesión y Memoria

Herramienta

Descripción

session_start

Llamada única que devuelve un resumen completo: última sesión, lecciones relevantes, fallos abiertos, salud del cerebro. Llámala al inicio de cada sesión.

session_end

Guarda el resumen de la sesión, archivos cambiados, duración. Llámala al final de cada sesión.

learn_from_attempts

Almacena lecciones estructuradas después de cualquier corrección de errores o despliegue. Admite gravedad, rutas de archivo, comandos, etiquetas. Elimina duplicados por tema.

recall_best_solution

Recupera la mejor solución conocida para un tema (incrementa el contador de recuperación).

remember_context

Almacena en caché cualquier análisis o hallazgo de arquitectura para futuras sesiones.

recall_context

Recupera contexto almacenado en caché por clave exacta (admite glob: "file:*").

smart_recall

Búsqueda semántica en todo el contexto almacenado en caché por significado/palabras clave.

list_remembered

Lista todas las entradas de contexto almacenadas en caché.

forget_context

Elimina contexto obsoleto.

⚙️ Gestión de instancias

Herramienta

Descripción

list_instances

Lista todas tus instancias de caché

create_instance

Crea una nueva instancia (nivel gratuito o de pago)

get_instance

Obtiene detalles de una instancia específica

get_connection_string

Obtiene la URL de conexión redis://

delete_instance

Elimina permanentemente una instancia

🗄️ Operaciones de caché

Herramienta

Descripción

cache_get / cache_set / cache_delete

Operaciones de caché en vivo

cache_exists / cache_ttl / cache_keys

Inspección de claves

cache_stats

Memoria, tasa de aciertos, ops/seg

cache_mget / cache_mset

Operaciones de canalización masiva

cache_lock_acquire / cache_lock_release

Bloqueos distribuidos (Redlock-lite)

cache_stream_set / cache_stream_get

Caché de streaming de tokens LLM

🔍 Semántica e IA

Herramienta

Descripción

semantic_search

Búsqueda de similitud vectorial (nivel Speed/Business)

detect_namespace

Clasifica automáticamente el prompt en un espacio de nombres semántico

cache_warmup

Precalienta la caché semántica con pares de preguntas y respuestas conocidos

index_project

Indexa archivos fuente locales para búsqueda semántica de IA

get_api_status

Comprueba el estado de la API + información de autenticación JWT

Configuración

Recomendado: Sin intervención mediante npx

CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server setup

Sin instalación, sin paso de compilación. El asistente detecta automáticamente tus editores y escribe todos los archivos de configuración.

Configuración manual

Obtén tu token JWT en cachly.dev/settings → API Tokens.

Claude Code / Claude Desktop

{
  "mcpServers": {
    "cachly": {
      "command": "npx",
      "args": ["-y", "@cachly-dev/mcp-server"],
      "env": { "CACHLY_JWT": "your-jwt-token-here" }
    }
  }
}
  • Claude Code: añade a .claude/mcp.json en tu proyecto

  • Claude Desktop (macOS): ~/Library/Application Support/Claude/claude_desktop_config.json

GitHub Copilot (VS Code)

Añade a .vscode/mcp.json:

{
  "servers": {
    "cachly": {
      "type": "stdio",
      "command": "npx",
      "args": ["-y", "@cachly-dev/mcp-server"],
      "env": { "CACHLY_JWT": "your-jwt-token-here" }
    }
  }
}

Luego: Ctrl/Cmd+Shift+P → "MCP: List Servers" → inicia cachly.

Cursor

Añade a .cursor/mcp.json:

{
  "mcpServers": {
    "cachly": {
      "command": "npx",
      "args": ["-y", "@cachly-dev/mcp-server"],
      "env": { "CACHLY_JWT": "your-jwt-token-here" }
    }
  }
}

Windsurf / Continue.dev

Mismo formato stdio/mcpServers: añádelo a su respectivo archivo de configuración MCP.

Variables de entorno

Variable

Requerido

Predeterminado

Descripción

CACHLY_JWT

Tu JWT de Keycloak desde cachly.dev/settings

CACHLY_API_URL

https://api.cachly.dev

Sustitución para desarrollo local

Sesión de ejemplo

User: Create a free cache instance for my OpenAI project

Copilot: I'll create a free cachly instance for you.
[calls create_instance(name="openai-cache", tier="free")]

✅ Instance **openai-cache** (FREE) created and provisioning started!
   ID: `a1b2c3d4-...`
   Status: provisioning

Use `get_connection_string` to get your Redis URL in ~30 seconds.

User: Get the connection string

Copilot: [calls get_connection_string(instance_id="a1b2c3d4-...")]

Connection string for openai-cache:
  redis://:password@my-node.cachly.dev:30101

Environment variable:
  REDIS_URL="redis://:password@my-node.cachly.dev:30101"

Desarrollo local

# Run against local API
CACHLY_JWT=your-token CACHLY_API_URL=http://localhost:3001 npm run dev

Casos de uso en el mundo real

🧠 Deja de releer tu base de código: "Caché de pensamiento"

El problema: Cada vez que le preguntas a Copilot sobre tu base de código, ejecuta "Ich verschaffe mir einen Überblick über die Codebasis" y vuelve a leer cientos de archivos.

La solución: Almacena en caché los resultados del "pensamiento" de tu IA:

You: "Analyze the authentication architecture"
AI:  [reads 47 files, takes 30 seconds]
     The auth uses Keycloak with JWT tokens. The flow is:
     1. User hits /sign-in → NextAuth redirect
     2. Keycloak validates credentials
     3. JWT returned, stored in session
     
     [calls remember_context("auth_architecture", "The auth uses Keycloak...")]
     🧠 Context saved for future sessions.

--- Next day, new session ---

You: "How does auth work?"
AI:  [calls smart_recall("auth")]
     🧠 Found cached context:
     The auth uses Keycloak with JWT tokens...
     
     (No file reading needed — instant answer!)

El asistente de setup (ver al principio de este README) escribe las instrucciones de sesión automáticamente en tu CLAUDE.md / .github/copilot-instructions.md: no se necesita edición manual. Simplemente ejecuta npx @cachly-dev/mcp-server setup una vez y tu asistente de IA llamará a session_start al inicio de cada sesión automáticamente.

1. Desarrollo asistido por IA: "¿Qué cachés estoy usando?"

Estás creando un microservicio que usa múltiples instancias de cachly. Pregúntale a tu asistente de IA directamente:

You: "List all my cachly instances and their status"
AI:  Using cachly_list_instances...
     
     You have 3 instances:
     1. prod-api (Pro, running) — redis://:***@prod.cachly.dev:30101
     2. staging (Dev, running) — redis://:***@staging.cachly.dev:30102  
     3. ml-pipeline (Speed, running) — redis://:***@ml.cachly.dev:30103
     
     Total MRR: €72/month

2. Depuración de caché: "¿Por qué está cayendo mi tasa de aciertos?"

Tu tasa de aciertos de caché semántica cayó durante la noche. Depúralo sin salir de tu editor:

You: "Check the analytics for my prod-api instance"
AI:  Using cachly_semantic_stats...
     
     ⚠️ Hit rate dropped 23% in the last 24h (82% → 63%)
     
     Anomaly detected: near-miss spike (+140%)
     → 47 queries are hitting similarity 0.80-0.84 (just below your 0.85 threshold)
     
     Recommendation: Lower threshold to 0.82 to capture these near-misses.
     
You: "Do it"
AI:  Using cachly_set_threshold... ✅ Threshold set to 0.82 for namespace cachly:sem

3. Precalentamiento de caché de despliegue: "Prellenar la caché para la nueva versión"

Después de desplegar una nueva versión, calienta la caché semántica con consultas comunes:

You: "Warm up the staging cache with our top 50 support questions"
AI:  Using cachly_batch_index with your FAQ embeddings...
     
     ✅ Indexed 50 entries in 340ms (batch pipeline)
     Namespace: cachly:sem:qa
     
     Your cache is ready — first users will get instant responses.

4. Monitoreo de costos: "¿Cuánto estoy ahorrando?"

Realiza un seguimiento de tus ahorros en costos de LLM directamente en tu IDE:

You: "How much has cachly saved me this month?"
AI:  Using cachly_semantic_stats...
     
     📊 This month's savings:
     - Total cache hits: 12,847
     - Estimated savings: $384.21 (vs. direct LLM calls)
     - Efficiency score: 84/100 (Grade: A)
     - Best namespace: cachly:sem:qa (94% hit rate)

5. Integración de canalización CI: "Comprobar la salud de la caché antes de desplegar"

Añade comprobaciones de salud de caché a tu flujo de trabajo de despliegue:

You: "Check if any cache anomalies would block a deploy"
AI:  Using cachly_analytics_anomalies...
     
     ✅ No critical anomalies detected.
     1 info-level notice: stale cache in namespace "translations" 
     (12 near-misses/24h, 0 new entries)
     
     Recommendation: Run warmup after deploy for translations namespace.
     Deploy is safe to proceed.

Licencia

MIT © cachly.dev

Install Server
A
security – no known vulnerabilities
F
license - not found
A
quality - A tier

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/cachly-dev/cachly-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server