Skip to main content
Glama

Cognee MCP-Server

Manuelle Installation

Ein MCP-Serverprojekt

  1. Klonen Sie das Cognee -Repository

  2. Abhängigkeiten installieren

brew install uv
cd cognee-mcp uv sync --dev --all-extras --reinstall
  1. Aktivieren Sie den Venv mit

source .venv/bin/activate
  1. Fügen Sie den neuen Server zu Ihrer Claude-Konfiguration hinzu:

Die Datei sollte hier liegen: ~/Library/Application\ Support/Claude/

cd ~/Library/Application\ Support/Claude/

Sie müssen claude_desktop_config.json in diesem Ordner erstellen, falls es nicht vorhanden ist. Stellen Sie sicher, dass Sie Ihre Pfade und den LLM-API-Schlüssel zur folgenden Datei hinzufügen. Verwenden Sie den Editor Ihrer Wahl, zum Beispiel Nano:

nano claude_desktop_config.json
{ "mcpServers": { "cognee": { "command": "/Users/{user}/cognee/.venv/bin/uv", "args": [ "--directory", "/Users/{user}/cognee/cognee-mcp", "run", "cognee" ], "env": { "ENV": "local", "TOKENIZERS_PARALLELISM": "false", "LLM_API_KEY": "sk-" } } } }

Starten Sie Ihren Claude-Desktop neu.

Installation über Smithery

So installieren Sie Cognee für Claude Desktop automatisch über Smithery :

npx -y @smithery/cli install cognee --client claude

Definieren Sie das Cognify-Tool in server.py. Starten Sie Ihren Claude-Desktop neu.

Um den Debugger zu verwenden, führen Sie Folgendes aus:

mcp dev src/server.py

Inspektor mit abgelaufener Zeitüberschreitung öffnen:

http://localhost:5173?timeout=120000

Um während der Entwicklung von Cognee neue Änderungen anzuwenden, müssen Sie Folgendes tun:

  1. poetry lock im Cognee-Ordner

  2. uv sync --dev --all-extras --reinstall

  3. mcp dev src/server.py

Entwicklung

Um den lokalen Cognee-Build zu verwenden, führen Sie im Stammverzeichnis des Cognee-Repos Folgendes aus:

poetry build -o ./cognee-mcp/sources

Nachdem der Build-Prozess abgeschlossen ist, ändern Sie die Abhängigkeit der Cognee-Bibliothek in der cognee-mcp/pyproject.toml von

cognee[postgres,codegraph,gemini,huggingface]==0.1.38

Zu

cognee[postgres,codegraph,gemini,huggingface]

Fügen Sie anschließend den folgenden Codeausschnitt zur gleichen Datei hinzu ( cognee-mcp/pyproject.toml ).

[tool.uv.sources] cognee = { path = "sources/cognee-0.1.38-py3-none-any.whl" }
Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/topoteretes/cognee'

If you have feedback or need assistance with the MCP directory API, please join our Discord server