MCP-Speicher
Ein Model Context Protocol (MCP)-Server, der Speicherlösungen für datenreiche Anwendungen mit effizienten Wissensgraphenfunktionen implementiert.
Überblick
Dieser MCP-Server implementiert eine Speicherlösung für datenintensive Anwendungen, die die Suche nach Informationen aus verschiedenen Quellen, einschließlich hochgeladener Dateien, erfordern. Er nutzt intern HippoRAG zur Speicherverwaltung über einen effizienten Wissensgraphen. HippoRAG ist eine erforderliche Abhängigkeit für dieses Paket.
Merkmale
- Sitzungsbasierter Speicher : Erstellen und verwalten Sie Speicher für bestimmte Chat-Sitzungen
- Effizienter Wissensgraph : Verwendet HippoRAG zur Speicherverwaltung
- Unterstützung mehrerer Transporte : Funktioniert sowohl mit Standard- als auch mit SSE-Transporten
- Suchfunktionen : Suchen Sie nach Informationen aus verschiedenen Quellen, einschließlich hochgeladener Dateien
- Automatisches Ressourcenmanagement : TTL-basierte Bereinigung sowohl für Sitzungen als auch für Speicherinstanzen
Installation
Von PyPI installieren:
Oder von der Quelle installieren:
Hinweis: HippoRAG ist eine erforderliche Abhängigkeit für die Funktion von mcp-mem.
Verwendung
Sie können den MCP-Server direkt ausführen:
Standardmäßig wird der Standardtransport verwendet. So verwenden Sie den SSE-Transport:
Sie können auch Host und Port für den SSE-Transport angeben:
Konfiguration
Grundkonfiguration
Um dieses Tool mit Claude in Windsurf zu verwenden, fügen Sie Ihrer MCP-Konfigurationsdatei die folgende Konfiguration hinzu:
Das command
sollte auf das Verzeichnis verweisen, in dem Sie das Python-Paket mit Pip installiert haben.
Konfiguration der Umgebungsvariablen
Sie können die von mcp-mem verwendeten LLM- und Einbettungsmodelle über Umgebungsvariablen konfigurieren:
EMBEDDING_MODEL_NAME
: Name des zu verwendenden Einbettungsmodells (Standard: „text-embedding-3-large“)EMBEDDING_BASE_URL
: Basis-URL für die Einbettungs-API (optional)LLM_NAME
: Name des zu verwendenden LLM-Modells (Standard: „gpt-4o-mini“)LLM_BASE_URL
: Basis-URL für die LLM-API (optional)OPENAI_API_KEY
: OpenAI-API-Schlüssel (erforderlich)
Speicherverwaltungskonfiguration
Der Server umfasst Funktionen zur automatischen Ressourcenverwaltung:
- Sitzungs-TTL : Entfernt Sitzungsverzeichnisse automatisch nach einer bestimmten Anzahl von Tagen der Inaktivität. Wird mit dem Konfigurationsparameter
session_ttl_days
festgelegt (Standard: Keine – deaktiviert). - Instanz-TTL : Entlädt HippoRAG-Instanzen nach einer bestimmten Inaktivitätsdauer automatisch aus dem Speicher. Die Einstellung erfolgt über den Konfigurationsparameter
instance_ttl_minutes
(Standard: 30 Minuten).Diese Funktion hilft bei der Verwaltung der Speichernutzung, indem inaktive Instanzen entladen werden, während die zugrunde liegenden Daten erhalten bleiben. Beim erneuten Zugriff auf eine entladene Instanz wird sie automatisch von der Festplatte neu geladen.
Anwendungsbeispiel:
Der Einfachheit halber können Sie das bereitgestellte Beispielskript verwenden:
Verfügbare Tools
Der MCP-Server bietet die folgenden Tools:
- create_memory : Erstellen Sie einen neuen Speicher für eine bestimmte Chat-Sitzung
- store_memory : Speicher zu einer bestimmten Sitzung hinzufügen
- retrieve_memory : Speicher aus einer bestimmten Sitzung abrufen
Entwicklung
Installation für die Entwicklung
Ausführen von Tests
Codestil
Dieses Projekt verwendet Black zur Formatierung, isort zur Importsortierung und flake8 zum Lint-Test:
Beitragen
Beiträge sind willkommen! Senden Sie gerne einen Pull Request.
Lizenz
Dieses Projekt ist unter der MIT-Lizenz lizenziert – Einzelheiten finden Sie in der Datei LICENSE .
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Ein MCP-Server, der Speicherlösungen für datenreiche Anwendungen implementiert und HippoRAG für effiziente Wissensgraphenfunktionen verwendet, wodurch die Suche in mehreren Quellen, einschließlich hochgeladener Dateien, ermöglicht wird.
Related MCP Servers
- -securityAlicense-qualityThis project is based on the Knowledge Graph Memory Server from the MCP servers repository and retains its core functionality.Last updated -44107TypeScriptMIT License
- AsecurityAlicenseAqualityA high-performance MCP server utilizing libSQL for persistent memory and vector search capabilities, enabling efficient entity management and semantic knowledge storage.Last updated -66456TypeScriptMIT License
- AsecurityAlicenseAqualityA customized MCP memory server that enables creation and management of a knowledge graph with features like custom memory paths and timestamping for capturing interactions via language models.Last updated -112JavaScriptMIT License
- -securityAlicense-qualityAn MCP server aimed to be portable, local, easy and convenient to support semantic/graph based retrieval of txtai "all in one" embeddings database. Any txtai embeddings db in tar.gz form can be loadedLast updated -26PythonMIT License