Skip to main content
Glama

cachly MCP Server

cachly.devのキャッシュインスタンスを、GitHub Copilot、Claude、Cursor、Windsurf、その他MCP対応のAIアシスタントから直接管理できます。

🚀 ゼロタッチセットアップ — ワンコマンド

AIが毎回コードベース全体を読み直すのをやめさせましょう。ワンコマンドでコンテキストメモリを有効にし、すべてのエディタを自動的に設定します:

CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server setup

対話型ウィザードが以下の処理を行います:

  1. cachlyアカウントで認証(またはJWTの入力を要求)

  2. AIの「脳」として使用するキャッシュインスタンスを選択

  3. Cursor、Windsurf、VS Code、Claude Code、Continue.devを自動検出

  4. 検出されたすべてのエディタに対して正しいMCP設定を書き込み

  5. CLAUDE.mdを作成/更新(冪等性があるため、再実行しても安全です)

結果: ファイル読み込みが60%削減され、セッション間でのコンテキストが即座に共有され、再発見の手間がゼロになります。

非対話型(CI / スクリプトによるセットアップ)

CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server init \
  --instance-id your-instance-id \
  --editor vscode

できること

接続が完了したら、AIアシスタントに話しかけるだけです:

"Create a free cachly instance called my-app-cache"
"List all my cache instances"
"Get the connection string for instance abc-123"
"Delete my test-cache instance"

利用可能なツール

🧠 AI Brain — セッションとメモリ

ツール

説明

session_start

前回のセッション、関連する学習内容、未解決の障害、脳の健全性など、完全なブリーフィングを返す単一の呼び出し。セッション開始時に毎回呼び出してください。

session_end

セッションの要約、変更されたファイル、期間を保存。セッション終了時に呼び出してください。

learn_from_attempts

バグ修正やデプロイ後に構造化された学習内容を保存。重大度、file_paths、コマンド、タグをサポート。トピックごとに重複排除されます。

recall_best_solution

トピックに対する最良の既知の解決策を取得(リコール回数をインクリメント)。

remember_context

将来のセッションのために、分析やアーキテクチャの知見をキャッシュ。

recall_context

正確なキー(globをサポート: "file:*")でキャッシュされたコンテキストを取得。

smart_recall

意味やキーワードに基づいて、キャッシュされたすべてのコンテキストをセマンティック検索。

list_remembered

キャッシュされたすべてのコンテキストエントリを一覧表示。

forget_context

古いコンテキストを削除。

⚙️ インスタンス管理

ツール

説明

list_instances

すべてのキャッシュインスタンスを一覧表示

create_instance

新しいインスタンスを作成(無料または有料プラン)

get_instance

特定のインスタンスの詳細を取得

get_connection_string

redis://接続URLを取得

delete_instance

インスタンスを完全に削除

🗄️ キャッシュ操作

ツール

説明

cache_get / cache_set / cache_delete

ライブキャッシュ操作

cache_exists / cache_ttl / cache_keys

キーの検査

cache_stats

メモリ、ヒット率、ops/sec

cache_mget / cache_mset

一括パイプライン操作

cache_lock_acquire / cache_lock_release

分散ロック (Redlock-lite)

cache_stream_set / cache_stream_get

LLMトークンストリーミングキャッシュ

🔍 セマンティック & AI

ツール

説明

semantic_search

ベクトル類似性検索 (Speed/Businessプラン)

detect_namespace

プロンプトをセマンティック名前空間に自動分類

cache_warmup

既知のQ&Aペアでセマンティックキャッシュを事前ウォームアップ

index_project

AIセマンティック検索のためにローカルソースファイルをインデックス化

get_api_status

APIの健全性とJWT認証情報を確認

セットアップ

推奨: npxによるゼロタッチセットアップ

CACHLY_JWT=your-jwt npx @cachly-dev/mcp-server setup

インストールやビルドの手順は不要です。ウィザードがエディタを自動検出し、すべての設定ファイルを書き込みます。

手動設定

cachly.dev/settings → API TokensからJWTトークンを取得してください。

Claude Code / Claude Desktop

{
  "mcpServers": {
    "cachly": {
      "command": "npx",
      "args": ["-y", "@cachly-dev/mcp-server"],
      "env": { "CACHLY_JWT": "your-jwt-token-here" }
    }
  }
}
  • Claude Code: プロジェクト内の.claude/mcp.jsonに追加

  • Claude Desktop (macOS): ~/Library/Application Support/Claude/claude_desktop_config.json

GitHub Copilot (VS Code)

.vscode/mcp.jsonに追加:

{
  "servers": {
    "cachly": {
      "type": "stdio",
      "command": "npx",
      "args": ["-y", "@cachly-dev/mcp-server"],
      "env": { "CACHLY_JWT": "your-jwt-token-here" }
    }
  }
}

その後: Ctrl/Cmd+Shift+P → "MCP: List Servers"cachlyを開始。

Cursor

.cursor/mcp.jsonに追加:

{
  "mcpServers": {
    "cachly": {
      "command": "npx",
      "args": ["-y", "@cachly-dev/mcp-server"],
      "env": { "CACHLY_JWT": "your-jwt-token-here" }
    }
  }
}

Windsurf / Continue.dev

同じstdio/mcpServers形式です。それぞれのMCP設定ファイルに追加してください。

環境変数

変数

必須

デフォルト

説明

CACHLY_JWT

cachly.dev/settingsから取得したKeycloak JWT

CACHLY_API_URL

https://api.cachly.dev

ローカル開発用の上書き

セッション例

User: Create a free cache instance for my OpenAI project

Copilot: I'll create a free cachly instance for you.
[calls create_instance(name="openai-cache", tier="free")]

✅ Instance **openai-cache** (FREE) created and provisioning started!
   ID: `a1b2c3d4-...`
   Status: provisioning

Use `get_connection_string` to get your Redis URL in ~30 seconds.

User: Get the connection string

Copilot: [calls get_connection_string(instance_id="a1b2c3d4-...")]

Connection string for openai-cache:
  redis://:password@my-node.cachly.dev:30101

Environment variable:
  REDIS_URL="redis://:password@my-node.cachly.dev:30101"

ローカル開発

# Run against local API
CACHLY_JWT=your-token CACHLY_API_URL=http://localhost:3001 npm run dev

実用的なユースケース

🧠 コードベースの再読み込みを停止 — 「思考キャッシュ」

問題: Copilotにコードベースについて尋ねるたびに、「コードベースの概要を把握しています」と表示され、何百ものファイルを再読み込みします。

解決策: AIの「思考」結果をキャッシュします:

You: "Analyze the authentication architecture"
AI:  [reads 47 files, takes 30 seconds]
     The auth uses Keycloak with JWT tokens. The flow is:
     1. User hits /sign-in → NextAuth redirect
     2. Keycloak validates credentials
     3. JWT returned, stored in session
     
     [calls remember_context("auth_architecture", "The auth uses Keycloak...")]
     🧠 Context saved for future sessions.

--- Next day, new session ---

You: "How does auth work?"
AI:  [calls smart_recall("auth")]
     🧠 Found cached context:
     The auth uses Keycloak with JWT tokens...
     
     (No file reading needed — instant answer!)

setupウィザード(このREADMEの冒頭を参照)が、セッション指示を自動的にCLAUDE.md / .github/copilot-instructions.mdに書き込みます。手動編集は不要です。 npx @cachly-dev/mcp-server setupを一度実行するだけで、AIアシスタントがセッション開始時に自動的にsession_startを呼び出すようになります。

1. AI支援開発 — 「どのキャッシュを使っているか?」

複数のcachlyインスタンスを使用するマイクロサービスを構築している場合、AIアシスタントに直接尋ねることができます:

You: "List all my cachly instances and their status"
AI:  Using cachly_list_instances...
     
     You have 3 instances:
     1. prod-api (Pro, running) — redis://:***@prod.cachly.dev:30101
     2. staging (Dev, running) — redis://:***@staging.cachly.dev:30102  
     3. ml-pipeline (Speed, running) — redis://:***@ml.cachly.dev:30103
     
     Total MRR: €72/month

2. キャッシュのデバッグ — 「なぜヒット率が低下しているのか?」

セマンティックキャッシュのヒット率が夜間に低下しました。エディタを離れずにデバッグします:

You: "Check the analytics for my prod-api instance"
AI:  Using cachly_semantic_stats...
     
     ⚠️ Hit rate dropped 23% in the last 24h (82% → 63%)
     
     Anomaly detected: near-miss spike (+140%)
     → 47 queries are hitting similarity 0.80-0.84 (just below your 0.85 threshold)
     
     Recommendation: Lower threshold to 0.82 to capture these near-misses.
     
You: "Do it"
AI:  Using cachly_set_threshold... ✅ Threshold set to 0.82 for namespace cachly:sem

3. デプロイ時のキャッシュウォームアップ — 「新しいリリースのためにキャッシュを事前充填」

新しいバージョンをデプロイした後、一般的なクエリでセマンティックキャッシュをウォームアップします:

You: "Warm up the staging cache with our top 50 support questions"
AI:  Using cachly_batch_index with your FAQ embeddings...
     
     ✅ Indexed 50 entries in 340ms (batch pipeline)
     Namespace: cachly:sem:qa
     
     Your cache is ready — first users will get instant responses.

4. コスト監視 — 「どれくらい節約できているか?」

LLMのコスト削減額をIDE内で直接追跡します:

You: "How much has cachly saved me this month?"
AI:  Using cachly_semantic_stats...
     
     📊 This month's savings:
     - Total cache hits: 12,847
     - Estimated savings: $384.21 (vs. direct LLM calls)
     - Efficiency score: 84/100 (Grade: A)
     - Best namespace: cachly:sem:qa (94% hit rate)

5. CIパイプライン統合 — 「デプロイ前にキャッシュの健全性を確認」

デプロイワークフローにキャッシュの健全性チェックを追加します:

You: "Check if any cache anomalies would block a deploy"
AI:  Using cachly_analytics_anomalies...
     
     ✅ No critical anomalies detected.
     1 info-level notice: stale cache in namespace "translations" 
     (12 near-misses/24h, 0 new entries)
     
     Recommendation: Run warmup after deploy for translations namespace.
     Deploy is safe to proceed.

ライセンス

MIT © cachly.dev

Install Server
A
security – no known vulnerabilities
F
license - not found
A
quality - A tier

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/cachly-dev/cachly-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server