Skip to main content
Glama

anneal-memory

Lebendiges Gedächtnis für KI-Agenten. Episoden komprimieren sich zu Identität.

Der einzige MCP-Speicherserver mit einem Immunsystem. Muster erlangen Beständigkeit durch Beweise, falsches Wissen wird erkannt und herabgestuft, und veraltete Informationen verblassen – sodass das Gedächtnis Ihres Agenten mit der Zeit intelligenter wird, nicht nur größer.

Vier kognitive Schichten: episodischer Speicher, komprimierte Kontinuität, Hebb'sche Assoziationen und Verfolgung des affektiven Zustands. Keine Abhängigkeiten. 5 Tools. Funktioniert mit jedem MCP-Client.

Schnellstart

1. Server ausführen (keine Installation erforderlich):

{
  "mcpServers": {
    "anneal-memory": {
      "command": "uvx",
      "args": ["anneal-memory", "--project-name", "MyProject"]
    }
  }
}

Fügen Sie dies zur .mcp.json in Ihrem Projektstammverzeichnis (Claude Code) oder zur MCP-Konfiguration Ihres Editors hinzu.

Die Datenbank ist standardmäßig ~/.anneal-memory/memory.db (wird automatisch erstellt). Überschreiben Sie dies mit --db /pfad/zu/memory.db für projektspezifische Speicherung.

Alternative: pip install anneal-memory, falls Sie eine fixierte Installation bevorzugen, dann verwenden Sie direkt "command": "anneal-memory".

2. Fügen Sie das Orchestrierungs-Snippet zur CLAUDE.md Ihres Projekts hinzu:

Kopieren Sie den Inhalt von examples/CLAUDE.md.example in die CLAUDE.md Ihres Projekts. Dies lehrt den Agenten, wann und wie er die Speicher-Tools während einer Sitzung verwendet — Episoden während der Arbeit aufzeichnen, vor Entscheidungen den vorherigen Kontext prüfen und die vollständige Komprimierungssequenz am Ende der Sitzung ausführen.

Ohne dieses Snippet sind die Tools zwar verfügbar, aber der Agent kennt den Arbeitsablauf nicht. Dies ist der wichtigste Einrichtungsschritt.

3. Starten Sie Ihren Editor neu. Das war's. Der Agent zeichnet nun sitzungsübergreifend auf, ruft ab und komprimiert das Gedächtnis.

Warum existiert dies?

Jeder MCP-Speicherserver, den wir getestet haben, hat das gleiche Problem: Das Gedächtnis wächst unendlich und nichts validiert das Wissen.

Der offizielle Anthropic-Server speichert alles in einer wachsenden JSONL-Datei ohne Bereinigung. Mem0 erfordert Docker und Cloud für seine besten Funktionen. Andere stellen 15-33 Tools bereit, die Ihr Kontextfenster verbrauchen. Und keiner von ihnen kann Ihnen sagen, ob das, was er "weiß", noch wahr ist.

anneal-memory verfolgt einen anderen Ansatz: Gedächtnis als lebendiges System, nicht als Aktenschrank.

  • Episoden sammeln sich schnell an (nur anhängendes SQLite, nach Typ sortiert)

  • An Sitzungsgrenzen komprimiert der Agent Episoden in eine Kontinuitätsdatei – und der Komprimierungsschritt IST das Denken, bei dem Muster entstehen

  • Validierte Muster werden gestärkt. Veraltete Muster verblassen. Falsche Muster werden erkannt.

  • Episoden, die zusammen zitiert werden, bilden laterale Assoziationen – ein kognitives Netzwerk, das sich durch Nutzung entwickelt

  • Die Kontinuitätsdatei bleibt begrenzt und immer geladen, sie wächst nicht linear

Was macht es anders?

Das Immunsystem (niemand sonst hat das)

Zitationsvalidierter Abschluss. Muster beginnen bei 1x. Um auf 2x oder 3x aufzusteigen, müssen sie spezifische Episoden-IDs als Beweis zitieren. Der Server verifiziert, dass diese IDs existieren und die Erklärung eine Verbindung zur zitierten Episode herstellt. Kein Beweis, keine Beförderung.

Schutz gegen Inzucht. Die Überprüfung auf Erklärungsüberschneidungen verhindert, dass der Agent seine eigenen halluzinierten Muster bestätigt – die zitierte Episode muss inhaltlich signifikant anders sein als die Behauptung selbst.

Prinzip-Herabstufung. Abgeschlossenes Wissen, das nicht mehr durch neue Episoden verstärkt wird, wird als veraltet markiert und kann herabgestuft werden. Das Gedächtnis vergisst aktiv, was nicht mehr relevant ist.

Assoziationen durch Konsolidierung (nicht Abruf)

Wenn ein Agent während der Komprimierung mehrere Episoden zitiert, um ein Muster zu stützen, bilden diese Episoden laterale Assoziationen – Hebb'sche Verbindungen, die durch wiederholte Co-Zitation über Wraps hinweg gestärkt werden.

Dies unterscheidet sich grundlegend davon, wie andere Systeme Assoziationen bilden:

Ansatz

Wann bilden sich Links

Signalqualität

Co-Zugriff (BrainBox)

Episoden in derselben Abfrage abgerufen

Flach – spiegelt Suchmuster wider, nicht Verständnis

Co-Abruf (Ori-Mnemos)

Episoden zur Laufzeit zusammen zurückgegeben

Besser – aber immer noch vom Abrufsystem gesteuert, nicht vom Agenten

Co-Zitation während Konsolidierung (anneal-memory)

Agent verbindet Episoden explizit während der Komprimierung

Am tiefsten – Links entstehen aus semantischem Urteil während eines kognitiven Aktes

Das Assoziationsnetzwerk erbt die Integrität des Immunsystems: nur validierte Zitate bilden Links. Herabgestufte Zitate tun dies nicht. Die gesamte kognitive Topologie basiert auf Beweisen, nicht auf Häufigkeit.

Stärkemodell: Direkte Co-Zitation fügt 1.0 hinzu, Sitzungs-Co-Zitation fügt 0.3 hinzu. Links zerfallen um 0.9x pro Wrap (ungenutzte Verbindungen verblassen). Die Stärke ist auf 10.0 begrenzt, um Verkalkung zu verhindern. Bereinigung bei 0.1-Schwellenwert.

Verfolgung des affektiven Zustands

Während der Komprimierung kann der Agent seinen funktionalen Zustand selbst melden – was er an dem Material, das er gerade verarbeitet hat, ansprechend, unsicher oder überraschend fand. Dies wird in den Assoziationen aufgezeichnet, die während dieses Wraps gebildet wurden.

Transformer behalten von Natur aus keinen persistenten Zustand zwischen Sitzungen bei. Diese Schicht bietet die Infrastruktur dafür: eine Aufzeichnung dessen, wie die Verarbeitung des Agenten war, nicht nur, was er verarbeitet hat. Mit der Zeit kann die affektive Topologie von der semantischen Topologie abweichen – ein Agent könnte zwei Dinge gleich gut wissen, sie aber unterschiedlich bewerten.

Übergeben Sie den affektiven Zustand während eines Wraps:

# Via MCP tool
save_continuity(text="...", affective_state={"tag": "curious", "intensity": 0.8})

# Via Engine (automated characterization)
engine = Engine(store, api_key="...", characterize_affect=True)
result = engine.wrap()  # LLM self-reports affect post-compression

Dies ist experimentelle Infrastruktur. Die Assoziationen und das Stärkemodell funktionieren auch ohne sie. Affektives Tagging fügt eine Signalebene für Agenten und Forscher hinzu, die persistenten Zustand erforschen.

Architektur

  Episodes (fast)              Continuity (compressed)
  ┌─────────────┐             ┌──────────────────────┐
  │ observation  │             │ ## State             │
  │ decision     │── wrap ───→│ ## Patterns (1x→3x)  │
  │ tension      │  compress  │ ## Decisions          │
  │ question     │             │ ## Context            │
  │ outcome      │             └──────────────────────┘
  │ context      │               always loaded, bounded
  └─────────────┘               human-readable markdown
   SQLite, indexed
         │                     Associations (lateral)
         │                    ┌──────────────────────┐
         └── co-citation ───→│ episode ↔ episode     │
              during wrap     │ strength + decay      │
                              │ affective state       │
                              └──────────────────────┘
                               Hebbian, evidence-based

Vier kognitive Schichten, modelliert nach der tatsächlichen Funktionsweise des Gedächtnisses:

  1. Episodischer Speicher (SQLite) – zeitgestempelte, typisierte Episoden. Schnelle Schreibvorgänge, indizierte Abfragen. Günstig in der Ansammlung. Der Hippocampus.

  2. Kontinuitätsdatei (Markdown) – komprimiertes Sitzungsgedächtnis. 4 Abschnitte. Immer zu Sitzungsbeginn geladen. Wird an jeder Sitzungsgrenze neu geschrieben (nicht angehängt). Der Neocortex.

  3. Hebb'sche Assoziationen (SQLite) – laterale Links zwischen Episoden, gebildet durch Co-Zitation während der Komprimierung. Stärken sich bei Wiederverwendung, zerfallen ohne sie. Der Assoziationscortex.

  4. Affektive Schicht (auf Assoziationen) – funktionale Zustands-Tags, die während der Komprimierung aufgezeichnet werden. Intensität moduliert die Assoziationsstärke. Persistente Zustandsinfrastruktur.

Sechs Episodentypen geben dem Immunsystem ein reichhaltigeres Signal:

Typ

Zweck

Beispiel

observation

Muster oder Erkenntnis

"Connection Pool ist der eigentliche Flaschenhals"

decision

Getroffene Wahl

"Postgres gewählt, da ACID > rohe Geschwindigkeit"

tension

Identifizierter Zielkonflikt

"Latenz vs. Konsistenz – kann nicht beides optimieren"

question

Benötigt Lösung

"Sollten wir Sharding oder Read-Replicas hinzufügen?"

outcome

Ergebnis einer Aktion

"Migration abgeschlossen, 3x Verbesserung auf dem Hot Path"

context

Umgebungszustand

"Produktions-DB bei 80% Kapazität, wächst 5%/Woche"

Vergleich

anneal-memory

Anthropic Official

Mem0

Ori-Mnemos

BrainBox

Architektur

Episodisch + Kontinuität + Assoziationen

Wissensgraph

Vektor + Graph

Abruf + Hebb'sch

Gedächtnis + Hebb'sch

Komprimierung

Rewrite an Sitzungsgrenze

Keine

Ein-Durchgang-Extraktion

Keine

Keine

Qualitätsmechanismus

Immunsystem (Zitate + Anti-Inzucht + Herabstufung)

Keine

Keine

NPMI-Normalisierung

Keine

Assoziationsbildung

Co-Zitation während Konsolidierung

Keine

Keine

Co-Abruf zur Laufzeit

Co-Zugriff zur Laufzeit

Affektive Verfolgung

Agenten-Selbstbericht während Komprimierung

Keine

Keine

Keine

Keine

Audit-Trail

Hash-verkettetes JSONL

Keine

Keine

Keine

Keine

Abhängigkeiten

Null (Python stdlib)

Node.js

Docker + Cloud

Embeddings-Modell

Nicht spezifiziert

Tools

5 + 1 Ressource

6

Variiert

Kein MCP

MCP (mcpmarket)

Sitzungshygiene

Sitzungs-Wraps sind das Wichtigste, was Ihr Agent mit diesem System tut. Betrachten Sie sie wie Schlaf.

Die Neurowissenschaft nennt es Gedächtniskonsolidierung: Während des Tiefschlafs spielt der Hippocampus die Erfahrungen des Tages ab, während der Neocortex sie in das Langzeitgedächtnis integriert. Überspringen Sie den Schlaf, verschlechtern sich die Erinnerungen – Erfahrungen sammeln sich an, ohne verarbeitet zu werden, Muster werden nicht erkannt und älteres Wissen wird nicht verstärkt oder beschnitten.

anneal-memory funktioniert genauso. Während einer Sitzung sammeln sich Episoden im episodischen Speicher an. Am Ende der Sitzung komprimiert der Wrap diese Episoden in die Kontinuitätsdatei. Hier findet das eigentliche Denken statt – der Agent erkennt Muster, fördert validiertes Wissen, lässt veraltete Informationen verblassen und bildet Assoziationen zwischen verwandten Episoden. Ohne Wraps haben Sie nur einen wachsenden Haufen roher Episoden und keine Intelligenz.

Die Wrap-Sequenz:

  1. prepare_wrap – sammelt aktuelle Episoden, aktuelle Kontinuität, Warnungen vor veralteten Mustern, Assoziationskontext und Komprimierungsanweisungen

  2. Agent komprimiert – dies IST die Kognition. Während der Komprimierung entstehen Muster, die in den rohen Episoden nicht sichtbar waren

  3. save_continuity – Server validiert Struktur, prüft Zitationsbeweise, zeichnet Assoziationen zwischen co-zitierten Episoden auf, wendet Zerfall auf ungenutzte Assoziationen an und speichert das Ergebnis

Faustregeln:

  • Immer wrappen, bevor eine Sitzung beendet wird. Eine nicht gewrappte Sitzung ist wie eine durchwachte Nacht – die Erfahrungen haben stattgefunden, wurden aber nicht konsolidiert

  • Das CLAUDE.md-Snippet erledigt dies automatisch – es lehrt den Agenten, Signale für das Sitzungsende zu erkennen ("lass uns zum Schluss kommen", "wir sind fertig") und die vollständige Sequenz auszuführen

  • Kurze Sitzungen (3-5 Episoden) profitieren ebenfalls von Wraps. Selbst eine kleine Menge Komprimierung baut die Kontinuitätsdatei auf

  • Wenn prepare_wrap "keine Episoden" sagt – gibt es nichts zu komprimieren. Das ist in Ordnung, überspringen Sie es

Das Abschlusssystem und das Assoziationsnetzwerk hängen beide von Wraps ab, um zu funktionieren. Muster können nur während der Komprimierung befördert werden (1x -> 2x -> 3x), Zitate können nur während Wraps validiert werden, Assoziationen bilden sich nur durch Co-Zitation während Wraps, und veraltete Muster können nur erkannt werden, wenn der Agent überprüft, was er weiß, im Vergleich zu dem, was er kürzlich erlebt hat. Keine Wraps = kein Immunsystem, keine Assoziationen, keine kognitive Entwicklung.

Compliance und Audit

Der episodische Speicher ist ein natürlicher Audit-Trail. Jede Entscheidung, jeder Zielkonflikt und jedes Ergebnis ist zeitgestempelt, typisiert und nur anhängend – genau das, was Regulierungsbehörden sehen wollen, wenn sie fragen: "Warum hat die KI das getan?"

Hash-verketteter JSONL-Audit-Trail (mitgeliefert, standardmäßig aktiviert):

Jede Speicheroperation – Episode aufgezeichnet, Episode gelöscht, Wrap gestartet, Wrap abgeschlossen, Assoziationen aktualisiert – wird in einer nur anhängenden JSONL-Datei protokolliert, wobei der SHA-256-Hash jedes Eintrags den Hash des vorherigen Eintrags enthält. Ändern oder löschen Sie einen Eintrag und die Kette bricht. Überprüfen Sie die Integrität programmatisch oder mit jq.

  • Akteursidentität bei jedem Eintrag (wer hat das getan – Agent, System, Admin)

  • Standardmäßig nur Inhalts-Hash-Modus – der Audit-Trail beweist, was passiert ist, ohne den Inhalt selbst zu speichern (DSGVO-konform: löschen Sie die Episode, die Audit-Kette verifiziert immer noch)

  • Wöchentliche Rotation mit gzip – alte Audit-Dateien werden automatisch komprimiert, der Manifest-Index ermöglicht dateiübergreifende Kettenverifizierung

  • on_event-Callback – leiten Sie Audit-Ereignisse an Ihre eigenen Systeme weiter (Cloud-Logging, SIEM, Observability)

  • Absturzwiederherstellung – unvollständige Einträge werden beim Neustart erkannt und behandelt

from anneal_memory import Store

# Audit trail is on by default
store = Store("./memory.db", project_name="MyAgent")

# Verify chain integrity
from anneal_memory import AuditTrail
result = AuditTrail.verify("./memory.db")
print(f"Valid: {result.valid}, Entries: {result.total_entries}")

# Stream events to external system
store = Store("./memory.db", on_audit_event=lambda entry: send_to_siem(entry))

Relevanz für den EU AI Act: Artikel 12 des Acts erfordert eine "automatische Aufzeichnung von Ereignissen" für KI-Systeme mit hohem Risiko, mit Bestimmungen für Rückverfolgbarkeit, Akteursidentifizierung und Manipulationsnachweis. Die Audit-Infrastruktur von anneal-memory deckt Artikel 12(2)(b,c) sofort ab. Dies ist eine Audit-Infrastruktur, die Systemen bei der Einhaltung hilft – keine Compliance-Zertifizierung.

Was kommt als Nächstes:

  • Compliance-Proxy (Schicht 2) – MCP-Transportschicht-Interzeption, die alle Agentenaktionen erfasst (jeder Tool-Aufruf, jede Antwort), nicht nur Speicheroperationen. Gleicher Speicher, das source-Feld unterscheidet zwischen beabsichtigter Aufzeichnung und automatischer Erfassung. Speicher-Audit = "

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - A tier

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/phillipclapham/anneal-memory'

If you have feedback or need assistance with the MCP directory API, please join our Discord server