Cognee MCP-Server
Manuelle Installation
Ein MCP-Serverprojekt
- Klonen Sie das Cognee -Repository
- Abhängigkeiten installieren
- Aktivieren Sie den Venv mit
- Fügen Sie den neuen Server zu Ihrer Claude-Konfiguration hinzu:
Die Datei sollte hier liegen: ~/Library/Application\ Support/Claude/
Sie müssen claude_desktop_config.json in diesem Ordner erstellen, falls es nicht vorhanden ist. Stellen Sie sicher, dass Sie Ihre Pfade und den LLM-API-Schlüssel zur folgenden Datei hinzufügen. Verwenden Sie den Editor Ihrer Wahl, zum Beispiel Nano:
Starten Sie Ihren Claude-Desktop neu.
Installation über Smithery
So installieren Sie Cognee für Claude Desktop automatisch über Smithery :
Definieren Sie das Cognify-Tool in server.py. Starten Sie Ihren Claude-Desktop neu.
Um den Debugger zu verwenden, führen Sie Folgendes aus:
Inspektor mit abgelaufener Zeitüberschreitung öffnen:
Um während der Entwicklung von Cognee neue Änderungen anzuwenden, müssen Sie Folgendes tun:
poetry lock
im Cognee-Ordneruv sync --dev --all-extras --reinstall
mcp dev src/server.py
Entwicklung
Um den lokalen Cognee-Build zu verwenden, führen Sie im Stammverzeichnis des Cognee-Repos Folgendes aus:
Nachdem der Build-Prozess abgeschlossen ist, ändern Sie die Abhängigkeit der Cognee-Bibliothek in der cognee-mcp/pyproject.toml
von
Zu
Fügen Sie anschließend den folgenden Codeausschnitt zur gleichen Datei hinzu ( cognee-mcp/pyproject.toml
).
You must be authenticated.
local-only server
The server can only run on the client's local machine because it depends on local resources.
Speichermanager für KI-Apps und Agenten, der verschiedene Graph- und Vektorspeicher verwendet und die Aufnahme aus über 30 Datenquellen ermöglicht
Related MCP Servers
- AsecurityAlicenseAqualityMemory Bank Server provides a set of tools and resources for AI assistants to interact with Memory Banks. Memory Banks are structured repositories of information that help maintain context and track progress across multiple sessions.Last updated -1511113TypeScriptMIT License
- AsecurityAlicenseAqualityA flexible memory system for AI applications that supports multiple LLM providers and can be used either as an MCP server or as a direct library integration, enabling autonomous memory management without explicit commands.Last updated -313136JavaScriptMIT License
- -securityAlicense-qualityEnhanced knowledge graph memory server for AI assistants that uses Neo4j as the backend storage engine, enabling powerful graph queries and efficient storage of user interaction information with full MCP protocol compatibility.Last updated -TypeScriptMIT License
- -securityAlicense-qualityA Model Context Protocol server that provides AI agents with persistent memory capabilities through Mem0, allowing them to store, retrieve, and semantically search memories.Last updated -2PythonMIT License