cachly-mcp-server
cachly MCP-Server
Verwalten Sie Ihre cachly.dev Cache-Instanzen direkt aus GitHub Copilot, Claude, Cursor, Windsurf und jedem anderen MCP-kompatiblen KI-Assistenten.
🚀 Zero-Touch-Einrichtung — Ein Befehl
Verhindern Sie, dass Ihre KI jedes Mal Ihre gesamte Codebasis neu einliest. Ein Befehl aktiviert den Kontextspeicher und konfiguriert alle Ihre Editoren automatisch:
CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server setupDer interaktive Assistent wird:
Sich bei Ihrem cachly-Konto authentifizieren (oder nach einem JWT fragen)
Sie auswählen lassen, welche Cache-Instanz als Ihr KI-Gehirn verwendet werden soll
Cursor, Windsurf, VS Code, Claude Code und Continue.dev automatisch erkennen
Die korrekte MCP-Konfiguration für jeden erkannten Editor schreiben
CLAUDE.mderstellen/aktualisieren (idempotent — sicher bei erneutem Ausführen)
Ergebnis: 60 % weniger Dateizugriffe, sofortiger Kontext über Sitzungen hinweg, keine erneute Erkennung erforderlich.
Nicht-interaktiv (CI / Skript-Einrichtung)
CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server init \
--instance-id your-instance-id \
--editor vscodeWas Sie tun können
Sobald die Verbindung hergestellt ist, sprechen Sie einfach mit Ihrem KI-Assistenten:
"Create a free cachly instance called my-app-cache"
"List all my cache instances"
"Get the connection string for instance abc-123"
"Delete my test-cache instance"Verfügbare Tools
🧠 KI-Gehirn — Sitzung & Speicher
Tool | Beschreibung |
| Einzelner Aufruf, der eine vollständige Zusammenfassung zurückgibt: letzte Sitzung, relevante Erkenntnisse, offene Fehler, Zustand des Gehirns. Zu Beginn jeder Sitzung aufrufen. |
| Sitzungszusammenfassung, geänderte Dateien und Dauer speichern. Am Ende jeder Sitzung aufrufen. |
| Strukturierte Erkenntnisse nach jeder Fehlerbehebung oder Bereitstellung speichern. Unterstützt Schweregrad, Dateipfade, Befehle, Tags. Dedupliziert nach Thema. |
| Die beste bekannte Lösung für ein Thema abrufen (erhöht den Abrufzähler). |
| Analysen oder Architekturerkenntnisse für zukünftige Sitzungen zwischenspeichern. |
| Zwischengespeicherten Kontext über einen exakten Schlüssel abrufen (unterstützt Glob: |
| Semantische Suche über den gesamten zwischengespeicherten Kontext nach Bedeutung/Schlüsselwörtern. |
| Alle zwischengespeicherten Kontexteinträge auflisten. |
| Veralteten Kontext löschen. |
⚙️ Instanzverwaltung
Tool | Beschreibung |
| Alle Ihre Cache-Instanzen auflisten |
| Eine neue Instanz erstellen (kostenloser oder kostenpflichtiger Tarif) |
| Details für eine bestimmte Instanz abrufen |
| Die |
| Eine Instanz dauerhaft löschen |
🗄️ Cache-Operationen
Tool | Beschreibung |
| Live-Cache-Operationen |
| Schlüsselinspektion |
| Speicher, Trefferquote, Operationen/Sek. |
| Bulk-Pipeline-Operationen |
| Verteilte Sperren (Redlock-lite) |
| LLM-Token-Streaming-Cache |
🔍 Semantik & KI
Tool | Beschreibung |
| Vektor-Ähnlichkeitssuche (Speed/Business-Tarif) |
| Prompt automatisch in einen semantischen Namespace klassifizieren |
| Semantischen Cache mit bekannten Q&A-Paaren vorwärmen |
| Lokale Quelldateien für die semantische KI-Suche indizieren |
| API-Status + JWT-Auth-Informationen prüfen |
Einrichtung
Empfohlen: Zero-Touch via npx
CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server setupKeine Installation, kein Build-Schritt. Der Assistent erkennt Ihre Editoren automatisch und schreibt alle Konfigurationsdateien.
Manuelle Konfiguration
Holen Sie sich Ihr JWT-Token unter cachly.dev/settings → API Tokens.
Claude Code / Claude Desktop
{
"mcpServers": {
"cachly": {
"command": "npx",
"args": ["-y", "@cachly-dev/mcp-server"],
"env": { "CACHLY_JWT": "your-jwt-token-here" }
}
}
}Claude Code: zu
.claude/mcp.jsonin Ihrem Projekt hinzufügenClaude Desktop (macOS):
~/Library/Application Support/Claude/claude_desktop_config.json
GitHub Copilot (VS Code)
Zu .vscode/mcp.json hinzufügen:
{
"servers": {
"cachly": {
"type": "stdio",
"command": "npx",
"args": ["-y", "@cachly-dev/mcp-server"],
"env": { "CACHLY_JWT": "your-jwt-token-here" }
}
}
}Dann: Strg/Cmd+Shift+P → "MCP: List Servers" → cachly starten.
Cursor
Zu .cursor/mcp.json hinzufügen:
{
"mcpServers": {
"cachly": {
"command": "npx",
"args": ["-y", "@cachly-dev/mcp-server"],
"env": { "CACHLY_JWT": "your-jwt-token-here" }
}
}
}Windsurf / Continue.dev
Gleiches stdio/mcpServers-Format — zur jeweiligen MCP-Konfigurationsdatei hinzufügen.
Umgebungsvariablen
Variable | Erforderlich | Standard | Beschreibung |
| ✅ | – | Ihr Keycloak-JWT von cachly.dev/settings |
| ❌ |
| Überschreibung für lokale Entwicklung |
Beispiel-Sitzung
User: Create a free cache instance for my OpenAI project
Copilot: I'll create a free cachly instance for you.
[calls create_instance(name="openai-cache", tier="free")]
✅ Instance **openai-cache** (FREE) created and provisioning started!
ID: `a1b2c3d4-...`
Status: provisioning
Use `get_connection_string` to get your Redis URL in ~30 seconds.
User: Get the connection string
Copilot: [calls get_connection_string(instance_id="a1b2c3d4-...")]
Connection string for openai-cache:
redis://:password@my-node.cachly.dev:30101
Environment variable:
REDIS_URL="redis://:password@my-node.cachly.dev:30101"Lokale Entwicklung
# Run against local API
CACHLY_JWT=your-token CACHLY_API_URL=http://localhost:3001 npm run devPraxisbeispiele
🧠 Hören Sie auf, Ihre Codebasis neu einzulesen — "Thinking Cache"
Das Problem: Jedes Mal, wenn Sie Copilot nach Ihrer Codebasis fragen, führt es "Ich verschaffe mir einen Überblick über die Codebasis" aus und liest Hunderte von Dateien neu ein.
Die Lösung: Zwischenspeichern Sie die "Denkergebnisse" Ihrer KI:
You: "Analyze the authentication architecture"
AI: [reads 47 files, takes 30 seconds]
The auth uses Keycloak with JWT tokens. The flow is:
1. User hits /sign-in → NextAuth redirect
2. Keycloak validates credentials
3. JWT returned, stored in session
[calls remember_context("auth_architecture", "The auth uses Keycloak...")]
🧠 Context saved for future sessions.
--- Next day, new session ---
You: "How does auth work?"
AI: [calls smart_recall("auth")]
🧠 Found cached context:
The auth uses Keycloak with JWT tokens...
(No file reading needed — instant answer!)Der setup-Assistent (siehe oben in dieser README) schreibt die Sitzungsanweisungen automatisch in Ihre CLAUDE.md / .github/copilot-instructions.md — keine manuelle Bearbeitung erforderlich. Führen Sie einfach einmal npx @cachly-dev/mcp-server setup aus und Ihr KI-Assistent ruft automatisch zu Beginn jeder Sitzung session_start auf.
1. KI-unterstützte Entwicklung — "Welche Caches verwende ich?"
Sie entwickeln einen Microservice, der mehrere cachly-Instanzen verwendet. Fragen Sie Ihren KI-Assistenten direkt:
You: "List all my cachly instances and their status"
AI: Using cachly_list_instances...
You have 3 instances:
1. prod-api (Pro, running) — redis://:***@prod.cachly.dev:30101
2. staging (Dev, running) — redis://:***@staging.cachly.dev:30102
3. ml-pipeline (Speed, running) — redis://:***@ml.cachly.dev:30103
Total MRR: €72/month2. Cache-Debugging — "Warum sinkt meine Trefferquote?"
Ihre semantische Cache-Trefferquote ist über Nacht gesunken. Debuggen Sie es, ohne Ihren Editor zu verlassen:
You: "Check the analytics for my prod-api instance"
AI: Using cachly_semantic_stats...
⚠️ Hit rate dropped 23% in the last 24h (82% → 63%)
Anomaly detected: near-miss spike (+140%)
→ 47 queries are hitting similarity 0.80-0.84 (just below your 0.85 threshold)
Recommendation: Lower threshold to 0.82 to capture these near-misses.
You: "Do it"
AI: Using cachly_set_threshold... ✅ Threshold set to 0.82 for namespace cachly:sem3. Deployment Cache Warmup — "Cache für das neue Release vorfüllen"
Nach dem Deployment einer neuen Version wärmen Sie den semantischen Cache mit häufigen Abfragen vor:
You: "Warm up the staging cache with our top 50 support questions"
AI: Using cachly_batch_index with your FAQ embeddings...
✅ Indexed 50 entries in 340ms (batch pipeline)
Namespace: cachly:sem:qa
Your cache is ready — first users will get instant responses.4. Kostenüberwachung — "Wie viel spare ich?"
Verfolgen Sie Ihre LLM-Kosteneinsparungen direkt in Ihrer IDE:
You: "How much has cachly saved me this month?"
AI: Using cachly_semantic_stats...
📊 This month's savings:
- Total cache hits: 12,847
- Estimated savings: $384.21 (vs. direct LLM calls)
- Efficiency score: 84/100 (Grade: A)
- Best namespace: cachly:sem:qa (94% hit rate)5. CI-Pipeline-Integration — "Cache-Status vor dem Deployment prüfen"
Fügen Sie Cache-Statusprüfungen zu Ihrem Deployment-Workflow hinzu:
You: "Check if any cache anomalies would block a deploy"
AI: Using cachly_analytics_anomalies...
✅ No critical anomalies detected.
1 info-level notice: stale cache in namespace "translations"
(12 near-misses/24h, 0 new entries)
Recommendation: Run warmup after deploy for translations namespace.
Deploy is safe to proceed.Lizenz
MIT © cachly.dev
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/cachly-dev/cachly-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server