Skip to main content
Glama

Memory Accurate Response Mode v2.2.6 - Das intelligente, persistente Speichersystem für KI-Agenten (unterstützt HTTP und STDIO). Hören Sie auf, gegen Ihren Speicher zu kämpfen, und kontrollieren Sie ihn. Erleben Sie langfristiges Erinnerungsvermögen, Sitzungskontinuität und zuverlässigen Konversationsverlauf, damit Ihre LLMs nie den Überblick über das Wesentliche verlieren.

GitHub stars GitHub forks License Python FastAPI Docker Pulls PyPI Downloads

pip install MCP Registry

Official MARM

Hinweis: Dies ist das offizielle MARM-Repository. Alle offiziellen Versionen und Releases werden hier verwaltet.

Forks können experimentieren, aber offizielle Updates kommen immer aus diesem Repo.


🚀 Projekt-Update: Q2 2026

Ich schließe derzeit die Einführung von SysDX ab, einem forensischen Windows-Hardware-Diagnose-Toolkit, das entwickelt wurde, um intermittierendes PCIe-Flapping und TDR-Abstürze durch über 800 automatisierte Pester-Tests zu erkennen. Diese produktionsintensive Entwicklungsphase diente als ultimativer Stresstest für die Kernlogik von MARM, und ich portiere nun diese Stabilitäts- und Speicheroptimierungen aus der Praxis zurück in dieses Repository.

🛠️ Q2 Roadmap

  • Sitzungspersistenz-Fix: Lösung der marm_log_session-Zustandslogik, um sicherzustellen, dass aktive Sitzungen korrekt persistieren, bevor Protokolleinträge ausgelöst werden.

  • Intelligentes Rate Limiting: Reduzierung der 10-minütigen Localhost-Sperre und Implementierung eines Retry-After-Headers für eine reibungslosere Handhabung durch MCP-Clients.

  • Verzeichnisbasierter Speicher: Umstellung auf eine SQLite-Architektur pro Projekt, um isolierte Speicherpools für verschiedene Programmierumgebungen zu ermöglichen.

  • Reduzierung von Kontext-Bloat: Implementierung von Lazy-Loading für Dokumentationen, um unnötigen Token-Verbrauch beim Sitzungsstart zu verhindern.

  • Automatisierungs-Checkpoints: Hinzufügen einer optionalen "Auto-Log"-Funktion, die alle N Nachrichten semantische Zusammenfassungen auslöst.

  • Kern-Bereinigung: Entfernen doppelter Root-Dateien, um eine einzige Quelle der Wahrheit zu etablieren und zukünftige Installationsabweichungen zu verhindern.

Danke für Ihre Geduld und Unterstützung.


MARM Demo-Video: Docker-Installation + Persistenter KI-Speicher in Aktion

https://github.com/user-attachments/assets/c7c6a162-5408-4eda-a461-610b7e713dfe

Dieses Demo-Video zeigt einen Docker-Pull von MARM MCP und die Verbindung mit Claude über den Befehl claude add mcp transport. Anschließend wird gezeigt, wie mehrere KI-Agenten (Claude, Gemini, Qwen) sofort Protokolle und Notizbucheinträge über den persistenten, universellen Speicher von MARM teilen, was nahtlose agentenübergreifende Erinnerung und "absolute Wahrheit"-Notizbücher in Aktion beweist.


Warum MARM MCP: Das Problem & die Lösung

Ihre KI vergisst alles. MARM MCP nicht.

Moderne LLMs verlieren mit der Zeit den Kontext, wiederholen frühere Ideen und driften von Anforderungen ab. MARM MCP löst dies mit einer vereinheitlichten, persistenten, MCP-nativen Speicherschicht, die unter jedem von Ihnen verwendeten KI-Client liegt. Sie kombiniert semantische Suche, strukturierte Sitzungsprotokolle, wiederverwendbare Notizbücher und intelligente Zusammenfassungen, damit Ihre Agenten sich an frühere Arbeiten erinnern, darauf verweisen und darauf aufbauen können – konsistent, über Sitzungen und Tools hinweg.

MCP in einem Satz: MARM MCP bietet persistenten Speicher und strukturierten Sitzungskontext unter jedem KI-Tool, damit Ihre Agenten lernen, sich erinnern und über alle Ihre Workflows hinweg zusammenarbeiten können.

Das Problem → Die MARM-Lösung

  • Problem: Konversationen werden zurückgesetzt; Entscheidungen gehen verloren; Arbeit verteilt sich auf mehrere KI-Tools.

  • Lösung: Eine universelle, persistente Speicherschicht, die die wichtigen Teile (Entscheidungen, Konfigurationen, Code, Begründungen) erfasst und klassifiziert und sie dann nach Bedeutung – nicht nach Schlüsselwörtern – abruft.

Vorher vs. Nachher

  • Ohne MARM: verlorener Kontext, wiederholte Vorschläge, abdriftender Umfang, "bei Null anfangen".

  • Mit MARM: Sitzungsspeicher, sitzungsübergreifende Kontinuität, konkreter Abruf von Entscheidungen und schnellere, genauere Bereitstellung.

Was MARM MCP liefert

Speicher

Multi-KI

Architektur

Semantische Suche - Finden nach Bedeutung mittels KI-Embeddings

Vereinheitlichte Speicherschicht - Funktioniert mit Claude, Qwen, Gemini, MCP-Clients

18 vollständige MCP-Tools - Volle Abdeckung des Model Context Protocol

Automatische Klassifizierung - Inhalte kategorisiert (Code, Projekt, Buch, Allgemein)

Plattformübergreifende Intelligenz - Verschiedene KIs lernen aus geteiltem Wissen

Datenbankoptimierung - SQLite mit WAL-Modus und Connection Pooling

Persistenter sitzungsübergreifender Speicher - Erinnerungen überdauern Agenten-Konversationen

Benutzergesteuerter Speicher - "Bring Your Own History", granulare Kontrolle

Rate Limiting - IP-basierte Stufen für Stabilität

Intelligenter Abruf - Vektor-Ähnlichkeitssuche mit kontextbewussten Fallbacks

MCP-Konformität - Verwaltung der Antwortgröße für vorhersehbare Leistung

Docker Ready - Containerisierte Bereitstellung mit Gesundheits-/Bereitschaftsprüfungen


Was Benutzer sagen

„MARM handhabt unsere industriellen Automatisierungsworkflows in der Produktion erfolgreich. Wir haben Sitzungsverwaltung, persistentes Protokollieren und intelligenten Abruf über Container-Neustarts hinweg in unserer Windows 11 + Docker-Umgebung validiert. Das System verfolgt zuverlässig komplexe technische Entscheidungen und behält die Datenintegrität über Bereitstellungszyklen hinweg bei.“
@Ophy21, GitHub-Benutzer (Ingenieur für industrielle Automatisierung)

„MARM erwies sich als außergewöhnlich wertvoll für DevOps und komplexe Docker-Projekte. Es behielt 100% Speichergenauigkeit bei, bewahrte den Kontext bei 46 Diensten und Netzwerkkonfigurationen und ermöglichte standardkonforme Python/Terraform-Arbeit. Semantische Suche und automatisierte Sitzungsprotokolle machten das Lösen von Async- und Infrastrukturproblemen weitaus einfacher. Wertungsbewertung: 9.5/10 - unverzichtbar für Speicher auf Unternehmensebene, technische Standards und Langzeit-Codeverwaltung.“ @joe_nyc, Discord-Benutzer (DevOps/Infrastruktur-Ingenieur)


MARM MCP Server-Handbuch

Nachdem Sie das Ökosystem verstanden haben, finden Sie hier Informationen zur Verwendung des MCP-Servers mit Ihren KI-Agenten.


🚀 Schnellstart für MCP (HTTP & Stdio)

Docker-Installation:

docker pull lyellr88/marm-mcp-server:latest
docker run -d --name marm-mcp-server -p 8001:8001 -v ~/.marm:/home/marm/.marm lyellr88/marm-mcp-server:latest
claude mcp add --transport http marm-memory http://localhost:8001/mcp

Lokale http-Installation:

pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements.txt
python marm-mcp-server
claude mcp add --transport http marm-memory http://localhost:8001/mcp

Stdio-Installation:

pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements_stdio.txt
<platform> mcp add --transport stdio marm-memory-stdio python "your/file/path/to/marm-mcp-server/server_stdio.py"
python marm-mcp-server/server_stdio.py

Docker (Am schnellsten - 30 Sekunden):

docker pull lyellr88/marm-mcp-server:latest
docker run -d --name marm-mcp-server -p 8001:8001 -v ~/.marm:/home/marm/.marm lyellr88/marm-mcp-server:latest
claude mcp add --transport http marm-memory http://localhost:8001/mcp

Schnelle lokale http-Installation:

pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements.txt
python marm-mcp-server
claude mcp add --transport http marm-memory http://localhost:8001/mcp

Http Manuelle JSON-Konfiguration:

{
  "mcpServers": {
    "marm-memory": {
      "httpUrl": "http://localhost:8001/mcp",
      "authentication": {
        "type": "oauth",
        "clientId": "local_client_b6f3a01e",
        "clientSecret": "local_secret_ad6703cd2b4243ab",
        "authorizationUrl": "http://localhost:8001/oauth/authorize",
        "tokenUrl": "http://localhost:8001/oauth/token"
      }
    }
  }
}

Authentifizierung für die lokale Entwicklung (Nur Entwicklung)

MARM enthält Mock-OAuth 2.0-Anmeldeinformationen für lokale Tests – kein Produktions-Authentifizierungssystem.

Warum hartcodierte Anmeldeinformationen? Bei der lokalen Entwicklung haben Sie keine externen OAuth-Anbieter (GitHub, Google usw.). MARM enthält Entwickler-Anmeldeinformationen, damit Sie den vollständigen MCP-Authentifizierungsfluss ohne externe Abhängigkeiten testen können.

Verwenden Sie für die lokale Entwicklung diese Anmeldeinformationen:

  • Client ID: local_client_b6f3a01e

  • Client Secret: local_secret_ad6703cd2b4243ab

Der Server validiert nur während der Entwicklung gegen diese hartcodierten Werte.

Für die Produktionsbereitstellung: Ersetzen Sie diesen gesamten Abschnitt durch eine echte OAuth 2.1-Authentifizierung. Diese hartcodierten Anmeldeinformationen sind nur für die Entwicklung bestimmt und nicht für die Produktion geeignet.

Roadmap: Eine Multi-User-OAuth-Authentifizierung ist für ein zukünftiges Release geplant, um Team-Bereitstellungen und Cloud-Umgebungen zu unterstützen.


STDIO-Transportunterstützung (NEU 07.12.2025)

Der MARM MCP-Server unterstützt den STDIO-Transport für MCP-Clients, die eine stdin/stdout-Kommunikation erfordern (Orchestrierungsplattformen, CLI-Tools und integrierte Entwicklungsumgebungen).

Kurzanleitung Stdio-Installation

pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements_stdio.txt
<platform> mcp add --transport stdio marm-memory-stdio python "your/file/path/to/marm-mcp-server/server_stdio.py"
python marm-mcp-server/server_stdio.py

Erster Schritt:

pip install marm-mcp-server==2.2.6

Zweiter Schritt: Installieren Sie STDIO-spezifische Abhängigkeiten:

pip install -r marm-mcp-server/requirements_stdio.txt

Dritter Schritt: Konfiguration

Wählen Sie eine der beiden unten aufgeführten Einrichtungsmethoden:

Option 1: CLI-Konfiguration (Empfohlen)

Verwenden Sie den MCP-Befehl Ihrer Plattform, um MARM als STDIO-Server hinzuzufügen:

<platform> mcp add --transport stdio marm-memory-stdio python "your/file/path/to/marm-mcp-server/server_stdio.py"

Ersetzen Sie <platform> durch:

  • qwen für Qwen CLI

  • claude für Claude CLI

  • gemini für Gemini CLI

Beispiel:

claude mcp add --transport stdio marm-memory-stdio python "/home/user/marm-mcp-server/server_stdio.py"

Option 2: JSON-Konfiguration

Für IDEs und Clients, die eine manuelle Konfiguration erfordern, fügen Sie dies Ihrer Einstellungsdatei hinzu:

macOS/Linux:

{
  "mcpServers": {
    "marm-memory": {
      "command": "python",
      "args": ["/path/to/marm-mcp-server/server_stdio.py"],
      "cwd": "/path/to/marm-mcp-server"
    }
  }
}

Windows:

{
  "mcpServers": {
    "marm-memory": {
      "command": "python",
      "args": ["C:\\Users\\YourUsername\\path\\to\\marm-mcp-server\\server_stdio.py"],
      "cwd": "C:\\Users\\YourUsername\\path\\to\\marm-mcp-server"
    }
  }
}

Schritt 4 (Optional): Manuelles Ausführen des Servers

So führen Sie den Server lokal aus:

python marm-mcp-server/server_stdio.py

Der Server startet und wartet auf stdin/stdout auf JSON-RPC 2.0-Nachrichten von verbundenen MCP-Clients.

Konfigurationshinweise

  • Verwenden Sie python (nicht python3 unter Windows)

  • Der Parameter cwd ist erforderlich – er ermöglicht es dem Server, Kernmodule zu finden

  • Fügen Sie run NICHT als Argument hinzu

  • Ersetzen Sie /path/to/ durch Ihren tatsächlichen Installationspfad

Unterstützte Plattformen

Getestet und funktionsfähig unter:

  • ✅ Qwen CLI (Windows, macOS, Linux)

  • ✅ Claude CLI (Windows, macOS, Linux)

  • ✅ Gemini CLI (Windows, macOS, Linux)

  • ✅ Cursor (Windows, macOS, Linux) — verwenden Sie die JSON-Konfiguration

Für andere Plattformen

Wenn Ihre Plattform oben nicht aufgeführt ist:

  1. Versuchen Sie die JSON-Konfiguration — die meisten MCP-Clients unterstützen das Standard-Konfigurationsformat

  2. Nutzen Sie KI-Unterstützung — geben Sie Ihren Plattformnamen und die MCP-Dokumentation an einen KI-Assistenten weiter, der Ihnen helfen kann, das oben gezeigte Befehlsmuster anzupassen

  3. Überprüfen Sie die Plattformdokumentation — lesen Sie die Dokumentation Ihres MCP-Clients für die Einrichtung des STDIO-Transports


WebSocket-Transportunterstützung (Beta - In Testphase)

Der MARM MCP-Server enthält experimentelle WebSocket-Unterstützung für die MCP-Echtzeitkommunikation. Dieser Transport wurde intern implementiert und getestet, wird aber noch nicht aktiv in Produktions-Workflows verwendet.

Kurzanleitung WebSocket-Installation

pip install marm-mcp-server==2.2.6
pip install -r marm-mcp-server/requirements.txt
python marm-mcp-server/server.py

Verbindung über WebSocket (Beta):

# Claude CLI
claude mcp add marm-memory ws://localhost:8001/mcp/ws

# Grok CLI  
grok mcp add marm-memory --transport websocket --url "ws://localhost:8001/mcp/ws"

WebSocket-Endpunkt: ws://localhost:8001/mcp/ws

WebSocket-Funktionen

  • Echtzeitkommunikation - Vollduplex-WebSocket-Protokollunterstützung

  • JSON-RPC 2.0-Konformität - Alle 19 MCP-Methoden unterstützt

  • Gleiche Tool-Abdeckung - Zugriff auf alle MARM-Speicher- und Sitzungstools

  • Beta-Status - Getestet, aber nicht aktiv verwendet; Feedback willkommen

Unterstützte Plattformen

  • ✅ Claude CLI (WebSocket-Transport)

  • ✅ Grok CLI (WebSocket-

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lyellr88/marm-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server