Skip to main content
Glama

cognee-mcp

Cognee MCP-Server

Manuelle Installation

Ein MCP-Serverprojekt

  1. Klonen Sie das Cognee -Repository

  2. Abhängigkeiten installieren

brew install uv
cd cognee-mcp uv sync --dev --all-extras --reinstall
  1. Aktivieren Sie den Venv mit

source .venv/bin/activate
  1. Fügen Sie den neuen Server zu Ihrer Claude-Konfiguration hinzu:

Die Datei sollte hier liegen: ~/Library/Application\ Support/Claude/

cd ~/Library/Application\ Support/Claude/

Sie müssen claude_desktop_config.json in diesem Ordner erstellen, falls es nicht vorhanden ist. Stellen Sie sicher, dass Sie Ihre Pfade und den LLM-API-Schlüssel zur folgenden Datei hinzufügen. Verwenden Sie den Editor Ihrer Wahl, zum Beispiel Nano:

nano claude_desktop_config.json
{ "mcpServers": { "cognee": { "command": "/Users/{user}/cognee/.venv/bin/uv", "args": [ "--directory", "/Users/{user}/cognee/cognee-mcp", "run", "cognee" ], "env": { "ENV": "local", "TOKENIZERS_PARALLELISM": "false", "LLM_API_KEY": "sk-" } } } }

Starten Sie Ihren Claude-Desktop neu.

Installation über Smithery

So installieren Sie Cognee für Claude Desktop automatisch über Smithery :

npx -y @smithery/cli install cognee --client claude

Definieren Sie das Cognify-Tool in server.py. Starten Sie Ihren Claude-Desktop neu.

Um den Debugger zu verwenden, führen Sie Folgendes aus:

mcp dev src/server.py

Inspektor mit abgelaufener Zeitüberschreitung öffnen:

http://localhost:5173?timeout=120000

Um während der Entwicklung von Cognee neue Änderungen anzuwenden, müssen Sie Folgendes tun:

  1. poetry lock im Cognee-Ordner

  2. uv sync --dev --all-extras --reinstall

  3. mcp dev src/server.py

Entwicklung

Um den lokalen Cognee-Build zu verwenden, führen Sie im Stammverzeichnis des Cognee-Repos Folgendes aus:

poetry build -o ./cognee-mcp/sources

Nachdem der Build-Prozess abgeschlossen ist, ändern Sie die Abhängigkeit der Cognee-Bibliothek in der cognee-mcp/pyproject.toml von

cognee[postgres,codegraph,gemini,huggingface]==0.1.38

Zu

cognee[postgres,codegraph,gemini,huggingface]

Fügen Sie anschließend den folgenden Codeausschnitt zur gleichen Datei hinzu ( cognee-mcp/pyproject.toml ).

[tool.uv.sources] cognee = { path = "sources/cognee-0.1.38-py3-none-any.whl" }
Deploy Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

local-only server

The server can only run on the client's local machine because it depends on local resources.

Speichermanager für KI-Apps und Agenten, der verschiedene Graph- und Vektorspeicher verwendet und die Aufnahme aus über 30 Datenquellen ermöglicht

  1. Manuelle Installation
    1. Ein MCP-Serverprojekt
      1. Installation über Smithery
      2. Entwicklung

    Related MCP Servers

    • A
      security
      A
      license
      A
      quality
      A flexible memory system for AI applications that supports multiple LLM providers and can be used either as an MCP server or as a direct library integration, enabling autonomous memory management without explicit commands.
      Last updated -
      3
      12
      76
      MIT License
    • -
      security
      F
      license
      -
      quality
      A knowledge-graph-based memory system for AI agents that enables persistent information storage between conversations.
      Last updated -
      6
    • A
      security
      A
      license
      A
      quality
      Stores AI memories as Markdown files for visualization in Obsidian's graph view, allowing users to create knowledge graphs with entities, relations, and observations.
      Last updated -
      9
      7
      MIT License
    • -
      security
      F
      license
      -
      quality
      Provides local-first memory storage and retrieval with automatic embedding, vector search, and knowledge graph capabilities. Enables agents to store memories locally and retrieve relevant context through hybrid search with optional Neo4j graph traversal.
      Last updated -
      • Apple
      • Linux

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/topoteretes/cognee'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server