Uses Markdown as the primary file format for storing knowledge, with specific patterns for semantic structure.
Works seamlessly with Obsidian for knowledge management, visualization, and editing of the Basic Memory knowledge base files.
Provides import capability for ChatGPT conversation history into the Basic Memory knowledge base.
Basisspeicher
Mit Basic Memory können Sie persistentes Wissen durch natürliche Konversationen mit Large Language Models (LLMs) wie Claude aufbauen und gleichzeitig alles in einfachen Markdown-Dateien auf Ihrem Computer speichern. Es verwendet das Model Context Protocol (MCP), damit jedes kompatible LLM Ihre lokale Wissensdatenbank lesen und beschreiben kann.
- Website: https://basicmachines.co
- Dokumentation: https://memory.basicmachines.co
Setzen Sie Ihr Gespräch genau dort fort, wo Sie aufgehört haben
- KI-Assistenten können in einer neuen Konversation Kontext aus lokalen Dateien laden
- Notizen werden lokal in Echtzeit als Markdown-Dateien gespeichert
- Keine Projektkenntnisse oder spezielle Anleitung erforderlich
https://github.com/user-attachments/assets/a55d8238-8dd0-454a-be4c-8860dbbd0ddc
Schnellstart
Sie können den gemeinsamen Kontext über Dateien in ~/basic-memory
(Standardverzeichnisspeicherort) anzeigen.
Alternative Installation über Smithery
Sie können Smithery verwenden, um den Basisspeicher für Claude Desktop automatisch zu konfigurieren:
Dadurch wird Basic Memory installiert und konfiguriert, ohne dass manuelle Änderungen an der Claude Desktop-Konfigurationsdatei erforderlich sind. Der Smithery-Server hostet die MCP-Serverkomponente, während Ihre Daten lokal als Markdown-Dateien gespeichert bleiben.
Glama.ai
Warum Basisspeicher?
Die meisten LLM-Interaktionen sind flüchtig – man stellt eine Frage, erhält eine Antwort und alles ist vergessen. Jedes Gespräch beginnt von neuem, ohne den Kontext oder das Wissen aus vorherigen Gesprächen. Aktuelle Workarounds haben Einschränkungen:
- Chatverläufe erfassen Gespräche, sind aber kein strukturiertes Wissen
- RAG-Systeme können Dokumente abfragen, lassen LLMs jedoch nicht zurückschreiben
- Vektordatenbanken erfordern komplexe Setups und befinden sich oft in der Cloud
- Wissensgraphen benötigen typischerweise spezielle Werkzeuge zur Pflege
Basic Memory löst diese Probleme mit einem einfachen Ansatz: strukturierte Markdown-Dateien, die sowohl Menschen als auch LLMs lesen und schreiben können. Die wichtigsten Vorteile:
- Lokal zuerst: Das gesamte Wissen bleibt in Dateien, die Sie kontrollieren
- Bidirektional: Sowohl Sie als auch der LLM lesen und schreiben in dieselben Dateien
- Strukturiert und doch einfach: Verwendet bekanntes Markdown mit semantischen Mustern
- Durchsuchbarer Wissensgraph: LLMs können Links zwischen Themen folgen
- Standardformate: Funktioniert mit vorhandenen Editoren wie Obsidian
- Leichtgewichtige Infrastruktur: Nur lokale Dateien, indiziert in einer lokalen SQLite-Datenbank
Mit Basic Memory können Sie:
- Führen Sie Gespräche, die auf dem bisherigen Wissen aufbauen
- Erstellen Sie strukturierte Notizen während natürlicher Gespräche
- Führen Sie Gespräche mit LLMs, die sich an das erinnern, was Sie zuvor besprochen haben
- Navigieren Sie semantisch durch Ihren Wissensgraphen
- Behalten Sie alles lokal und unter Ihrer Kontrolle
- Verwenden Sie vertraute Tools wie Obsidian, um Notizen anzuzeigen und zu bearbeiten
- Bauen Sie eine persönliche Wissensbasis auf, die mit der Zeit wächst
So funktioniert es in der Praxis
Angenommen, Sie beschäftigen sich mit verschiedenen Methoden der Kaffeezubereitung und möchten Ihr Wissen festhalten. So funktioniert es:
- Beginnen Sie mit einem normalen Chat:
... Gespräch fortsetzen.
- Bitten Sie den LLM, Ihnen bei der Strukturierung dieses Wissens zu helfen:
LLM erstellt eine neue Markdown-Datei auf Ihrem System (die Sie sofort in Obsidian oder Ihrem Editor sehen können):
Die Notiz bettet semantische Inhalte und Links zu anderen Themen über eine einfache Markdown-Formatierung ein.
- Sie sehen diese Datei in Echtzeit auf Ihrem Computer im aktuellen Projektverzeichnis (Standard
~/$HOME/basic-memory
).
- Die Echtzeitsynchronisierung ist standardmäßig mit der Version v0.12.0 aktiviert
- Im Chat mit dem LLM können Sie einen Themenbezug herstellen:
Das LLM kann nun aus dem Wissensgraphen einen umfassenden Kontext erstellen. Zum Beispiel:
Jedes zugehörige Dokument kann zu mehr Kontext führen und so ein umfassendes semantisches Verständnis Ihrer Wissensdatenbank aufbauen.
Dadurch entsteht ein wechselseitiger Fluss, bei dem:
- Menschen schreiben und bearbeiten Markdown-Dateien
- LLMs lesen und schreiben über das MCP-Protokoll
- Durch die Synchronisierung bleibt alles konsistent
- Alle Daten bleiben in lokalen Dateien.
Technische Umsetzung
Unter der Haube, Basisspeicher:
- Speichert alles in Markdown-Dateien
- Verwendet eine SQLite-Datenbank für die Suche und Indizierung
- Extrahiert semantische Bedeutung aus einfachen Markdown-Mustern
- Dateien werden zu
Entity
-Objekten - Jede
Entity
kannObservations
oder Fakten haben, die mit ihr verknüpft sind Relations
verbinden Entitäten miteinander und bilden den Wissensgraphen
- Dateien werden zu
- Pflegt den aus den Dateien abgeleiteten lokalen Wissensgraphen
- Bietet eine bidirektionale Synchronisierung zwischen Dateien und dem Wissensgraphen
- Implementiert das Model Context Protocol (MCP) für die KI-Integration
- Stellt Tools bereit, mit denen KI-Assistenten den Wissensgraphen durchlaufen und manipulieren können
- Verwendet memory://-URLs, um Entitäten über Tools und Konversationen hinweg zu referenzieren
Das Dateiformat ist lediglich Markdown mit einigen einfachen Markierungen:
Jede Markdown-Datei enthält:
Frontmatter
Beobachtungen
Beobachtungen sind Fakten zu einem Thema. Sie können hinzugefügt werden, indem eine Markdown-Liste mit einem speziellen Format erstellt wird, das auf eine category
, tags
mit dem Zeichen "#" und einen optionalen context
verweisen kann.
Beobachtungs-Markdown-Format:
Beispiele für Beobachtungen:
Beziehungen
Beziehungen sind Verknüpfungen zu anderen Themen. Sie definieren, wie Entitäten im Wissensgraphen miteinander verbunden sind.
Markdown-Format:
Beispiele für Beziehungen:
Verwendung mit VS Code
Klicken Sie für die Ein-Klick-Installation auf eine der folgenden Installationsschaltflächen ...
Mit Basic Memory und VS Code können Sie beim Programmieren ganz einfach Informationen abrufen und speichern. Klicken Sie oben auf die Installationsschaltflächen, um die Einrichtung mit nur einem Klick durchzuführen, oder folgen Sie den unten stehenden Anweisungen zur manuellen Installation.
Manuelle Installation
Fügen Sie den folgenden JSON-Block zu Ihrer Benutzereinstellungsdatei (JSON) in VS Code hinzu. Drücken Sie dazu Ctrl + Shift + P
und geben Sie Preferences: Open User Settings (JSON)
ein.
Optional können Sie es einer Datei namens .vscode/mcp.json
in Ihrem Arbeitsbereich hinzufügen. Dadurch können Sie die Konfiguration mit anderen teilen.
Verwendung mit Claude Desktop
Basic Memory wird mithilfe des MCP (Model Context Protocol) erstellt und funktioniert mit der Claude-Desktop-App ( https://claude.ai/ ):
- Konfigurieren Sie Claude Desktop für die Verwendung des Basisspeichers:
Bearbeiten Sie Ihre MCP-Konfigurationsdatei (normalerweise unter ~/Library/Application Support/Claude/claude_desktop_config.json
für OS X):
Wenn Sie ein bestimmtes Projekt verwenden möchten (siehe Mehrere Projekte ), aktualisieren Sie Ihre Claude Desktop-Konfiguration:
- Synchronisieren Sie Ihr Wissen:
Basic Memory synchronisiert die Dateien in Ihrem Projekt in Echtzeit, wenn Sie manuelle Änderungen vornehmen.
- In Claude Desktop kann der LLM jetzt diese Tools verwenden:
- Beispielaufforderungen zum Ausprobieren:
Weitere Informationen
Weitere Informationen finden Sie in der Dokumentation , unter anderem zu:
- Vollständiges Benutzerhandbuch
- CLI-Tools
- Verwalten mehrerer Projekte
- Importieren von Daten aus OpenAI/Claude-Projekten
Lizenz
AGPL-3.0
Beiträge sind willkommen. Informationen zum lokalen Einrichten des Projekts und zum Einreichen von PRs finden Sie im Beitragsleitfaden .
Sternengeschichte
Mit ♥️ von Basic Machines erstellt
You must be authenticated.
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Tools
Basic Memory ist ein Wissensmanagementsystem, mit dem Sie aus Gesprächen mit KI-Assistenten einen persistenten semantischen Graphen erstellen können. Das gesamte Wissen wird in Standard-Markdown-Dateien auf Ihrem Computer gespeichert, sodass Sie die volle Kontrolle und Kontrolle über Ihre Daten haben. Direkte Integration mit Obsidan.md
- Setzen Sie Ihr Gespräch genau dort fort, wo Sie aufgehört haben
- Schnellstart
- Warum Basisspeicher?
- So funktioniert es in der Praxis
- Technische Umsetzung
- Verwendung mit VS Code
- Verwendung mit Claude Desktop
- Weitere Informationen
- Lizenz
- Sternengeschichte
Related Resources
Related MCP Servers
- -securityAlicense-qualityThis project is based on the Knowledge Graph Memory Server from the MCP servers repository and retains its core functionality.Last updated -44107TypeScriptMIT License
- AsecurityAlicenseAqualityMemory manager for AI apps and Agents using various graph and vector stores and allowing ingestion from 30+ data sourcesLast updated -42,166Apache 2.0
- AsecurityAlicenseAqualityA customized MCP memory server that enables creation and management of a knowledge graph with features like custom memory paths and timestamping for capturing interactions via language models.Last updated -112JavaScriptMIT License
- AsecurityAlicenseAqualityA flexible memory system for AI applications that supports multiple LLM providers and can be used either as an MCP server or as a direct library integration, enabling autonomous memory management without explicit commands.Last updated -313136JavaScriptMIT License