Skip to main content
Glama

lore

License: MIT TypeScript lore MCP server

Semantische Suche in Ihren Claude Code-Konversationen. Finden Sie alles, was Sie jemals besprochen haben -- über alle Projekte, alle Sitzungen und jeden Branch hinweg.

lore MCP server

Funktionen

  • Hybride Suche (Vektor + Stichwort) Kombiniert multilingual-e5-small Embeddings mit FTS5/BM25 mittels Reciprocal Rank Fusion. Findet Ergebnisse sowohl nach Bedeutung als auch nach exakten Begriffen.

  • Vollständig lokal, keine API-Schlüssel Alles läuft auf Ihrem Rechner. ONNX Runtime für Embeddings, sqlite-vec für die Speicherung. Keine Daten verlassen Ihr Gerät.

  • Automatische Indizierung bei Sitzungsende Ein SessionEnd-Hook indiziert automatisch alle neuen Sitzungen im Hintergrund. Keine manuellen Auslöser erforderlich.

  • Hintergrundindizierung Manuelle Index-Auslöser kehren sofort zurück. Überwachen Sie den Fortschritt, während Sie weiterarbeiten. Durchsuchen Sie bereits indizierte Inhalte, während der Rest verarbeitet wird.

  • Standardmäßig Opt-out Alle Projekte werden automatisch indiziert. Schließen Sie die aus, die Sie nicht möchten. Keine Registrierung erforderlich.

  • Konversationsbewusste Segmentierung Unterteilt nach logischen Abschnitten (Benutzerfrage + vollständige Antwortkette des Assistenten), nicht nach willkürlichen Token-Fenstern. Verarbeitet Tool-Nutzungsketten, Denkblöcke und mehrstufige Interaktionen korrekt.

  • 100+ Sprachen Koreanisch, Japanisch, Chinesisch, Englisch und über 90 weitere. CJK-bewusste Token-Schätzung für präzise Segmentierung.

Schnellstart

Zu Claude Code hinzufügen

# No install needed — always runs latest version
claude mcp add -s user lore -- npx getlore

# Or for a single project only
claude mcp add -s project lore -- npx getlore

Zu OpenAI Codex CLI hinzufügen

# No install needed
codex mcp add lore -- npx getlore
npm install -g getlore

# Then register with your tool:
claude mcp add -s user lore -- getlore   # Claude Code
codex mcp add lore -- getlore            # Codex CLI

# Manage your install:
getlore --version   # Check installed version
getlore update      # Update to latest

Verwendung

Sobald die Verbindung hergestellt ist, kann die KI die Tools von lore direkt verwenden:

You: "What did we discuss about auth refactoring last week?"

Claude: [calls lore search] Found 3 relevant conversations...
        In your "my-webapp" project on March 15, you decided to...

Ersteinrichtung:

  1. Index -- index() scannt automatisch alle Projekte, läuft im Hintergrund

  2. Suche -- fragen Sie alles über vergangene Konversationen

  3. Ausschließen (optional) -- verbergen Sie störende Projekte, die Sie nicht interessieren

Tools

Tool

Zweck

manage_projects

Projekte von der Indizierung ausschließen/einschließen (Opt-out-Modell)

index

Hintergrundindizierung starten. Alle nicht ausgeschlossenen Projekte. Modi: incremental (Standard), rebuild, cancel

status

Indizierungsfortschritt, ETA, Gründe für das Überspringen, DB-Status prüfen

search

Semantische + Stichwortsuche über Konversationen hinweg

get_context

Suchergebnisse mit der umgebenden Konversation erweitern

list_sessions

Indizierte Sitzungen nach Projekt durchsuchen

Warum gibt es dieses Tool?

Claude Code speichert jede Konversation als JSONL-Transkript in ~/.claude/projects/. Nach ein paar Wochen haben Sie Hunderte von Sitzungen in Dutzenden von Projekten -- Diskussionen über Architektur-Entscheidungen, Debugging-Sitzungen, Code-Reviews und Design-Explorationen.

Aber es gibt keine Möglichkeit, diese zu durchsuchen. Sie können nicht fragen: "Welchen Ansatz haben wir für die Auth-Middleware gewählt?" oder "In welchem Projekt gab es diese Diskussion über die Datenbankmigration?"

Bestehende Tools erfordern entweder Cloud-APIs, erzeugen Zombie-Prozesse oder behandeln Konversationen als generische Dokumente. lore wurde speziell für Claude Code-Sitzungen entwickelt: Es versteht Gesprächsgrenzen, Tool-Nutzungsketten und Denkblöcke. Es läuft vollständig lokal ohne weitere Abhängigkeiten außer Node.js.

Funktionsweise

~/.claude/projects/*/*.jsonl
        |
   JSONL Parser (extracts user/assistant messages, skips noise)
        |
   Turn-pair Chunker (groups by logical conversation turns)
        |
   Transformers.js (multilingual-e5-small, INT8 quantized, 384d)
        |
   sqlite-vec + FTS5 (hybrid vector + keyword storage)
        |
   Reciprocal Rank Fusion (combines both signals for ranking)

Speicherung: Einzelne SQLite-Datei unter ~/.lore/lore.db mit WAL-Modus für gleichzeitige Lesezugriffe.

Konfiguration: Projektausschlüsse werden in ~/.lore/config.json gespeichert.

Umgebungsvariablen

Variable

Standard

Beschreibung

LORE_DIR

~/.lore

Datenverzeichnis

LORE_DB

~/.lore/lore.db

Datenbankpfad

CLAUDE_PROJECTS_DIR

~/.claude/projects

Speicherort der Claude Code-Transkripte

Gemessen auf Apple Silicon (M-Serie):

Metrik

Wert

Suchlatenz

20-30ms

Index-Geschwindigkeit

~10 Sitzungen/Sek.

Erste Suche (kaltes Laden des Modells)

~5s

DB-Größe

~0,1MB pro 10 Sitzungen

Modellgröße (einmalig heruntergeladen)

~112MB

"Keine Sitzungen gefunden"

Führen Sie manage_projects mit der Aktion list aus, um verfügbare Projekte anzuzeigen. Alle werden standardmäßig indiziert, sofern sie nicht ausgeschlossen wurden.

Veraltete Sperrdatei

Wenn die Indizierung unterbrochen wurde, wird die Sperrdatei beim nächsten Lauf automatisch bereinigt (PID-basierte Erkennung).

DB-Beschädigung

Löschen Sie ~/.lore/lore.db und indizieren Sie neu. Ihre Quelldaten (~/.claude/projects/) werden niemals verändert.

Entwicklung

git clone https://github.com/hyunjae-labs/lore.git
cd lore
npm install
npm run build
npm test          # 118 tests

Tech-Stack

Lizenz

MIT

Install Server
A
security – no known vulnerabilities
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/hyunjae-labs/lore'

If you have feedback or need assistance with the MCP directory API, please join our Discord server