Skip to main content
Glama

cachly MCP-Server

Verwalten Sie Ihre cachly.dev Cache-Instanzen direkt aus GitHub Copilot, Claude, Cursor, Windsurf und jedem anderen MCP-kompatiblen KI-Assistenten.

🚀 Zero-Touch-Einrichtung — Ein Befehl

Verhindern Sie, dass Ihre KI jedes Mal Ihre gesamte Codebasis neu einliest. Ein Befehl aktiviert den Kontextspeicher und konfiguriert alle Ihre Editoren automatisch:

CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server setup

Der interaktive Assistent wird:

  1. Sich bei Ihrem cachly-Konto authentifizieren (oder nach einem JWT fragen)

  2. Sie auswählen lassen, welche Cache-Instanz als Ihr KI-Gehirn verwendet werden soll

  3. Cursor, Windsurf, VS Code, Claude Code und Continue.dev automatisch erkennen

  4. Die korrekte MCP-Konfiguration für jeden erkannten Editor schreiben

  5. CLAUDE.md erstellen/aktualisieren (idempotent — sicher bei erneutem Ausführen)

Ergebnis: 60 % weniger Dateizugriffe, sofortiger Kontext über Sitzungen hinweg, keine erneute Erkennung erforderlich.

Nicht-interaktiv (CI / Skript-Einrichtung)

CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server init \
  --instance-id your-instance-id \
  --editor vscode

Was Sie tun können

Sobald die Verbindung hergestellt ist, sprechen Sie einfach mit Ihrem KI-Assistenten:

"Create a free cachly instance called my-app-cache"
"List all my cache instances"
"Get the connection string for instance abc-123"
"Delete my test-cache instance"

Verfügbare Tools

🧠 KI-Gehirn — Sitzung & Speicher

Tool

Beschreibung

session_start

Einzelner Aufruf, der eine vollständige Zusammenfassung zurückgibt: letzte Sitzung, relevante Erkenntnisse, offene Fehler, Zustand des Gehirns. Zu Beginn jeder Sitzung aufrufen.

session_end

Sitzungszusammenfassung, geänderte Dateien und Dauer speichern. Am Ende jeder Sitzung aufrufen.

learn_from_attempts

Strukturierte Erkenntnisse nach jeder Fehlerbehebung oder Bereitstellung speichern. Unterstützt Schweregrad, Dateipfade, Befehle, Tags. Dedupliziert nach Thema.

recall_best_solution

Die beste bekannte Lösung für ein Thema abrufen (erhöht den Abrufzähler).

remember_context

Analysen oder Architekturerkenntnisse für zukünftige Sitzungen zwischenspeichern.

recall_context

Zwischengespeicherten Kontext über einen exakten Schlüssel abrufen (unterstützt Glob: "file:*").

smart_recall

Semantische Suche über den gesamten zwischengespeicherten Kontext nach Bedeutung/Schlüsselwörtern.

list_remembered

Alle zwischengespeicherten Kontexteinträge auflisten.

forget_context

Veralteten Kontext löschen.

⚙️ Instanzverwaltung

Tool

Beschreibung

list_instances

Alle Ihre Cache-Instanzen auflisten

create_instance

Eine neue Instanz erstellen (kostenloser oder kostenpflichtiger Tarif)

get_instance

Details für eine bestimmte Instanz abrufen

get_connection_string

Die redis://-Verbindungs-URL abrufen

delete_instance

Eine Instanz dauerhaft löschen

🗄️ Cache-Operationen

Tool

Beschreibung

cache_get / cache_set / cache_delete

Live-Cache-Operationen

cache_exists / cache_ttl / cache_keys

Schlüsselinspektion

cache_stats

Speicher, Trefferquote, Operationen/Sek.

cache_mget / cache_mset

Bulk-Pipeline-Operationen

cache_lock_acquire / cache_lock_release

Verteilte Sperren (Redlock-lite)

cache_stream_set / cache_stream_get

LLM-Token-Streaming-Cache

🔍 Semantik & KI

Tool

Beschreibung

semantic_search

Vektor-Ähnlichkeitssuche (Speed/Business-Tarif)

detect_namespace

Prompt automatisch in einen semantischen Namespace klassifizieren

cache_warmup

Semantischen Cache mit bekannten Q&A-Paaren vorwärmen

index_project

Lokale Quelldateien für die semantische KI-Suche indizieren

get_api_status

API-Status + JWT-Auth-Informationen prüfen

Einrichtung

Empfohlen: Zero-Touch via npx

CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server setup

Keine Installation, kein Build-Schritt. Der Assistent erkennt Ihre Editoren automatisch und schreibt alle Konfigurationsdateien.

Manuelle Konfiguration

Holen Sie sich Ihr JWT-Token unter cachly.dev/settings → API Tokens.

Claude Code / Claude Desktop

{
  "mcpServers": {
    "cachly": {
      "command": "npx",
      "args": ["-y", "@cachly-dev/mcp-server"],
      "env": { "CACHLY_JWT": "your-jwt-token-here" }
    }
  }
}
  • Claude Code: zu .claude/mcp.json in Ihrem Projekt hinzufügen

  • Claude Desktop (macOS): ~/Library/Application Support/Claude/claude_desktop_config.json

GitHub Copilot (VS Code)

Zu .vscode/mcp.json hinzufügen:

{
  "servers": {
    "cachly": {
      "type": "stdio",
      "command": "npx",
      "args": ["-y", "@cachly-dev/mcp-server"],
      "env": { "CACHLY_JWT": "your-jwt-token-here" }
    }
  }
}

Dann: Strg/Cmd+Shift+P → "MCP: List Servers"cachly starten.

Cursor

Zu .cursor/mcp.json hinzufügen:

{
  "mcpServers": {
    "cachly": {
      "command": "npx",
      "args": ["-y", "@cachly-dev/mcp-server"],
      "env": { "CACHLY_JWT": "your-jwt-token-here" }
    }
  }
}

Windsurf / Continue.dev

Gleiches stdio/mcpServers-Format — zur jeweiligen MCP-Konfigurationsdatei hinzufügen.

Umgebungsvariablen

Variable

Erforderlich

Standard

Beschreibung

CACHLY_JWT

Ihr Keycloak-JWT von cachly.dev/settings

CACHLY_API_URL

https://api.cachly.dev

Überschreibung für lokale Entwicklung

Beispiel-Sitzung

User: Create a free cache instance for my OpenAI project

Copilot: I'll create a free cachly instance for you.
[calls create_instance(name="openai-cache", tier="free")]

✅ Instance **openai-cache** (FREE) created and provisioning started!
   ID: `a1b2c3d4-...`
   Status: provisioning

Use `get_connection_string` to get your Redis URL in ~30 seconds.

User: Get the connection string

Copilot: [calls get_connection_string(instance_id="a1b2c3d4-...")]

Connection string for openai-cache:
  redis://:password@my-node.cachly.dev:30101

Environment variable:
  REDIS_URL="redis://:password@my-node.cachly.dev:30101"

Lokale Entwicklung

# Run against local API
CACHLY_JWT=your-token CACHLY_API_URL=http://localhost:3001 npm run dev

Praxisbeispiele

🧠 Hören Sie auf, Ihre Codebasis neu einzulesen — "Thinking Cache"

Das Problem: Jedes Mal, wenn Sie Copilot nach Ihrer Codebasis fragen, führt es "Ich verschaffe mir einen Überblick über die Codebasis" aus und liest Hunderte von Dateien neu ein.

Die Lösung: Zwischenspeichern Sie die "Denkergebnisse" Ihrer KI:

You: "Analyze the authentication architecture"
AI:  [reads 47 files, takes 30 seconds]
     The auth uses Keycloak with JWT tokens. The flow is:
     1. User hits /sign-in → NextAuth redirect
     2. Keycloak validates credentials
     3. JWT returned, stored in session
     
     [calls remember_context("auth_architecture", "The auth uses Keycloak...")]
     🧠 Context saved for future sessions.

--- Next day, new session ---

You: "How does auth work?"
AI:  [calls smart_recall("auth")]
     🧠 Found cached context:
     The auth uses Keycloak with JWT tokens...
     
     (No file reading needed — instant answer!)

Der setup-Assistent (siehe oben in dieser README) schreibt die Sitzungsanweisungen automatisch in Ihre CLAUDE.md / .github/copilot-instructions.mdkeine manuelle Bearbeitung erforderlich. Führen Sie einfach einmal npx @cachly-dev/mcp-server setup aus und Ihr KI-Assistent ruft automatisch zu Beginn jeder Sitzung session_start auf.

1. KI-unterstützte Entwicklung — "Welche Caches verwende ich?"

Sie entwickeln einen Microservice, der mehrere cachly-Instanzen verwendet. Fragen Sie Ihren KI-Assistenten direkt:

You: "List all my cachly instances and their status"
AI:  Using cachly_list_instances...
     
     You have 3 instances:
     1. prod-api (Pro, running) — redis://:***@prod.cachly.dev:30101
     2. staging (Dev, running) — redis://:***@staging.cachly.dev:30102  
     3. ml-pipeline (Speed, running) — redis://:***@ml.cachly.dev:30103
     
     Total MRR: €72/month

2. Cache-Debugging — "Warum sinkt meine Trefferquote?"

Ihre semantische Cache-Trefferquote ist über Nacht gesunken. Debuggen Sie es, ohne Ihren Editor zu verlassen:

You: "Check the analytics for my prod-api instance"
AI:  Using cachly_semantic_stats...
     
     ⚠️ Hit rate dropped 23% in the last 24h (82% → 63%)
     
     Anomaly detected: near-miss spike (+140%)
     → 47 queries are hitting similarity 0.80-0.84 (just below your 0.85 threshold)
     
     Recommendation: Lower threshold to 0.82 to capture these near-misses.
     
You: "Do it"
AI:  Using cachly_set_threshold... ✅ Threshold set to 0.82 for namespace cachly:sem

3. Deployment Cache Warmup — "Cache für das neue Release vorfüllen"

Nach dem Deployment einer neuen Version wärmen Sie den semantischen Cache mit häufigen Abfragen vor:

You: "Warm up the staging cache with our top 50 support questions"
AI:  Using cachly_batch_index with your FAQ embeddings...
     
     ✅ Indexed 50 entries in 340ms (batch pipeline)
     Namespace: cachly:sem:qa
     
     Your cache is ready — first users will get instant responses.

4. Kostenüberwachung — "Wie viel spare ich?"

Verfolgen Sie Ihre LLM-Kosteneinsparungen direkt in Ihrer IDE:

You: "How much has cachly saved me this month?"
AI:  Using cachly_semantic_stats...
     
     📊 This month's savings:
     - Total cache hits: 12,847
     - Estimated savings: $384.21 (vs. direct LLM calls)
     - Efficiency score: 84/100 (Grade: A)
     - Best namespace: cachly:sem:qa (94% hit rate)

5. CI-Pipeline-Integration — "Cache-Status vor dem Deployment prüfen"

Fügen Sie Cache-Statusprüfungen zu Ihrem Deployment-Workflow hinzu:

You: "Check if any cache anomalies would block a deploy"
AI:  Using cachly_analytics_anomalies...
     
     ✅ No critical anomalies detected.
     1 info-level notice: stale cache in namespace "translations" 
     (12 near-misses/24h, 0 new entries)
     
     Recommendation: Run warmup after deploy for translations namespace.
     Deploy is safe to proceed.

Lizenz

MIT © cachly.dev

Install Server
A
security – no known vulnerabilities
F
license - not found
A
quality - A tier

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/cachly-dev/cachly-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server