Skip to main content
Glama

cachly MCP Server

Управляйте своими экземплярами кэша cachly.dev напрямую из GitHub Copilot, Claude, Cursor, Windsurf и любого другого ИИ-ассистента с поддержкой MCP.

🚀 Настройка без усилий — одной командой

Прекратите заставлять ИИ перечитывать всю вашу кодовую базу каждый раз. Одна команда включает память контекста и автоматически настраивает все ваши редакторы:

CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server setup

Интерактивный мастер:

  1. Авторизуется в вашей учетной записи cachly (или запросит JWT)

  2. Позволит выбрать, какой экземпляр кэша использовать в качестве «мозга» вашего ИИ

  3. Автоматически обнаружит Cursor, Windsurf, VS Code, Claude Code и Continue.dev

  4. Запишет правильную конфигурацию MCP для каждого обнаруженного редактора

  5. Создаст/обновит CLAUDE.md (идемпотентно — можно безопасно запускать повторно)

Результат: на 60% меньше чтений файлов, мгновенный контекст между сессиями, отсутствие повторного поиска.

Неинтерактивная настройка (CI / скрипты)

CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server init \
  --instance-id your-instance-id \
  --editor vscode

Что вы можете делать

После подключения просто поговорите со своим ИИ-ассистентом:

"Create a free cachly instance called my-app-cache"
"List all my cache instances"
"Get the connection string for instance abc-123"
"Delete my test-cache instance"

Доступные инструменты

🧠 ИИ-мозг — Сессии и память

Инструмент

Описание

session_start

Одиночный вызов, возвращающий полный брифинг: последняя сессия, важные уроки, открытые ошибки, состояние «мозга». Вызывайте в начале каждой сессии.

session_end

Сохранение сводки сессии, измененных файлов, длительности. Вызывайте в конце каждой сессии.

learn_from_attempts

Сохранение структурированных уроков после исправления ошибки или развертывания. Поддерживает уровень серьезности, пути к файлам, команды, теги. Удаляет дубликаты по теме.

recall_best_solution

Получение лучшего известного решения по теме (увеличивает счетчик обращений).

remember_context

Кэширование любого анализа или архитектурного решения для будущих сессий.

recall_context

Получение кэшированного контекста по точному ключу (поддерживает glob: "file:*").

smart_recall

Семантический поиск по всему кэшированному контексту по смыслу/ключевым словам.

list_remembered

Список всех кэшированных записей контекста.

forget_context

Удаление устаревшего контекста.

⚙️ Управление экземплярами

Инструмент

Описание

list_instances

Список всех ваших экземпляров кэша

create_instance

Создание нового экземпляра (бесплатный или платный уровень)

get_instance

Получение деталей конкретного экземпляра

get_connection_string

Получение строки подключения redis://

delete_instance

Безвозвратное удаление экземпляра

🗄️ Операции с кэшем

Инструмент

Описание

cache_get / cache_set / cache_delete

Операции с кэшем в реальном времени

cache_exists / cache_ttl / cache_keys

Проверка ключей

cache_stats

Память, частота попаданий, операций/сек

cache_mget / cache_mset

Пакетные операции конвейера

cache_lock_acquire / cache_lock_release

Распределенные блокировки (Redlock-lite)

cache_stream_set / cache_stream_get

Кэш потоковой передачи токенов LLM

🔍 Семантика и ИИ

Инструмент

Описание

semantic_search

Векторный поиск сходства (уровень Speed/Business)

detect_namespace

Автоматическая классификация промпта в семантическое пространство имен

cache_warmup

Предварительный прогрев семантического кэша известными парами вопрос-ответ

index_project

Индексация локальных исходных файлов для семантического поиска ИИ

get_api_status

Проверка работоспособности API + информация об JWT-авторизации

Настройка

Рекомендуется: Zero-Touch через npx

CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server setup

Никакой установки, никаких этапов сборки. Мастер автоматически обнаруживает ваши редакторы и записывает все файлы конфигурации.

Ручная настройка

Получите ваш JWT-токен на cachly.dev/settings → API Tokens.

Claude Code / Claude Desktop

{
  "mcpServers": {
    "cachly": {
      "command": "npx",
      "args": ["-y", "@cachly-dev/mcp-server"],
      "env": { "CACHLY_JWT": "your-jwt-token-here" }
    }
  }
}
  • Claude Code: добавьте в .claude/mcp.json в вашем проекте

  • Claude Desktop (macOS): ~/Library/Application Support/Claude/claude_desktop_config.json

GitHub Copilot (VS Code)

Добавьте в .vscode/mcp.json:

{
  "servers": {
    "cachly": {
      "type": "stdio",
      "command": "npx",
      "args": ["-y", "@cachly-dev/mcp-server"],
      "env": { "CACHLY_JWT": "your-jwt-token-here" }
    }
  }
}

Затем: Ctrl/Cmd+Shift+P → "MCP: List Servers" → запустите cachly.

Cursor

Добавьте в .cursor/mcp.json:

{
  "mcpServers": {
    "cachly": {
      "command": "npx",
      "args": ["-y", "@cachly-dev/mcp-server"],
      "env": { "CACHLY_JWT": "your-jwt-token-here" }
    }
  }
}

Windsurf / Continue.dev

Тот же формат stdio/mcpServers — добавьте в соответствующий файл конфигурации MCP.

Переменные окружения

Переменная

Обязательно

По умолчанию

Описание

CACHLY_JWT

Ваш Keycloak JWT из cachly.dev/settings

CACHLY_API_URL

https://api.cachly.dev

Переопределение для локальной разработки

Пример сессии

User: Create a free cache instance for my OpenAI project

Copilot: I'll create a free cachly instance for you.
[calls create_instance(name="openai-cache", tier="free")]

✅ Instance **openai-cache** (FREE) created and provisioning started!
   ID: `a1b2c3d4-...`
   Status: provisioning

Use `get_connection_string` to get your Redis URL in ~30 seconds.

User: Get the connection string

Copilot: [calls get_connection_string(instance_id="a1b2c3d4-...")]

Connection string for openai-cache:
  redis://:password@my-node.cachly.dev:30101

Environment variable:
  REDIS_URL="redis://:password@my-node.cachly.dev:30101"

Локальная разработка

# Run against local API
CACHLY_JWT=your-token CACHLY_API_URL=http://localhost:3001 npm run dev

Реальные сценарии использования

🧠 Перестаньте перечитывать кодовую базу — «Кэш мышления»

Проблема: Каждый раз, когда вы спрашиваете Copilot о кодовой базе, он запускает «Ich verschaffe mir einen Überblick über die Codebasis» и перечитывает сотни файлов.

Решение: Кэшируйте результаты «мышления» вашего ИИ:

You: "Analyze the authentication architecture"
AI:  [reads 47 files, takes 30 seconds]
     The auth uses Keycloak with JWT tokens. The flow is:
     1. User hits /sign-in → NextAuth redirect
     2. Keycloak validates credentials
     3. JWT returned, stored in session
     
     [calls remember_context("auth_architecture", "The auth uses Keycloak...")]
     🧠 Context saved for future sessions.

--- Next day, new session ---

You: "How does auth work?"
AI:  [calls smart_recall("auth")]
     🧠 Found cached context:
     The auth uses Keycloak with JWT tokens...
     
     (No file reading needed — instant answer!)

Мастер setup (см. начало этого README) автоматически записывает инструкции сессии в ваш CLAUDE.md / .github/copilot-instructions.mdручное редактирование не требуется. Просто запустите npx @cachly-dev/mcp-server setup один раз, и ваш ИИ-ассистент будет автоматически вызывать session_start в начале каждой сессии.

1. ИИ-разработка — «Какие кэши я использую?»

Вы создаете микросервис, который использует несколько экземпляров cachly. Спросите своего ИИ-ассистента напрямую:

You: "List all my cachly instances and their status"
AI:  Using cachly_list_instances...
     
     You have 3 instances:
     1. prod-api (Pro, running) — redis://:***@prod.cachly.dev:30101
     2. staging (Dev, running) — redis://:***@staging.cachly.dev:30102  
     3. ml-pipeline (Speed, running) — redis://:***@ml.cachly.dev:30103
     
     Total MRR: €72/month

2. Отладка кэша — «Почему падает частота попаданий?»

Частота попаданий в семантический кэш упала за ночь. Отладьте это, не покидая редактор:

You: "Check the analytics for my prod-api instance"
AI:  Using cachly_semantic_stats...
     
     ⚠️ Hit rate dropped 23% in the last 24h (82% → 63%)
     
     Anomaly detected: near-miss spike (+140%)
     → 47 queries are hitting similarity 0.80-0.84 (just below your 0.85 threshold)
     
     Recommendation: Lower threshold to 0.82 to capture these near-misses.
     
You: "Do it"
AI:  Using cachly_set_threshold... ✅ Threshold set to 0.82 for namespace cachly:sem

3. Прогрев кэша при развертывании — «Предварительное заполнение кэша для нового релиза»

После развертывания новой версии прогрейте семантический кэш частыми запросами:

You: "Warm up the staging cache with our top 50 support questions"
AI:  Using cachly_batch_index with your FAQ embeddings...
     
     ✅ Indexed 50 entries in 340ms (batch pipeline)
     Namespace: cachly:sem:qa
     
     Your cache is ready — first users will get instant responses.

4. Мониторинг затрат — «Сколько я экономлю?»

Отслеживайте экономию на LLM прямо в вашей IDE:

You: "How much has cachly saved me this month?"
AI:  Using cachly_semantic_stats...
     
     📊 This month's savings:
     - Total cache hits: 12,847
     - Estimated savings: $384.21 (vs. direct LLM calls)
     - Efficiency score: 84/100 (Grade: A)
     - Best namespace: cachly:sem:qa (94% hit rate)

5. Интеграция с CI-конвейером — «Проверка состояния кэша перед развертыванием»

Добавьте проверки состояния кэша в ваш рабочий процесс развертывания:

You: "Check if any cache anomalies would block a deploy"
AI:  Using cachly_analytics_anomalies...
     
     ✅ No critical anomalies detected.
     1 info-level notice: stale cache in namespace "translations" 
     (12 near-misses/24h, 0 new entries)
     
     Recommendation: Run warmup after deploy for translations namespace.
     Deploy is safe to proceed.

Лицензия

MIT © cachly.dev

Install Server
A
security – no known vulnerabilities
F
license - not found
A
quality - A tier

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/cachly-dev/cachly-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server