cognee-mcp

сервер MCP cognee

Установка вручную

Проект сервера MCP

  1. Клонировать репозиторий cognee
  2. Установить зависимости
brew install uv
cd cognee-mcp uv sync --dev --all-extras --reinstall
  1. Активируйте venv с помощью
source .venv/bin/activate
  1. Добавьте новый сервер в конфигурацию Клода:

Файл должен находиться здесь: ~/Library/Application\ Support/Claude/

cd ~/Library/Application\ Support/Claude/

Вам необходимо создать claude_desktop_config.json в этой папке, если он не существует. Обязательно добавьте ваши пути и ключ LLM API в файл ниже. Используйте редактор по вашему выбору, например Nano:

nano claude_desktop_config.json
{ "mcpServers": { "cognee": { "command": "/Users/{user}/cognee/.venv/bin/uv", "args": [ "--directory", "/Users/{user}/cognee/cognee-mcp", "run", "cognee" ], "env": { "ENV": "local", "TOKENIZERS_PARALLELISM": "false", "LLM_API_KEY": "sk-" } } } }

Перезагрузите рабочий стол Клода.

Установка через Smithery

Чтобы автоматически установить Cognee для Claude Desktop через Smithery :

npx -y @smithery/cli install cognee --client claude

Определите инструмент cognify в server.py. Перезагрузите рабочий стол Claude.

Чтобы использовать отладчик, выполните:

mcp dev src/server.py

Откройте инспектор с истекшим временем ожидания:

http://localhost:5173?timeout=120000

Чтобы применить новые изменения при разработке cognee, вам необходимо сделать:

  1. poetry lock в папке cognee
  2. uv sync --dev --all-extras --reinstall
  3. mcp dev src/server.py

Разработка

Чтобы использовать локальную сборку cognee, выполните в корне репозитория cognee:

poetry build -o ./cognee-mcp/sources

После завершения процесса сборки измените зависимость библиотеки cognee внутри cognee-mcp/pyproject.toml с

cognee[postgres,codegraph,gemini,huggingface]==0.1.38

к

cognee[postgres,codegraph,gemini,huggingface]

После этого добавьте следующий фрагмент в тот же файл ( cognee-mcp/pyproject.toml ).

[tool.uv.sources] cognee = { path = "sources/cognee-0.1.38-py3-none-any.whl" }

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

local-only server

The server can only run on the client's local machine because it depends on local resources.

Менеджер памяти для приложений и агентов ИИ, использующий различные хранилища графов и векторов и позволяющий получать данные из более чем 30 источников

  1. Установка вручную
    1. Проект сервера MCP
      1. Установка через Smithery
      2. Разработка

    Related MCP Servers

    • A
      security
      A
      license
      A
      quality
      Memory Bank Server provides a set of tools and resources for AI assistants to interact with Memory Banks. Memory Banks are structured repositories of information that help maintain context and track progress across multiple sessions.
      Last updated -
      15
      111
      13
      TypeScript
      MIT License
    • A
      security
      A
      license
      A
      quality
      A flexible memory system for AI applications that supports multiple LLM providers and can be used either as an MCP server or as a direct library integration, enabling autonomous memory management without explicit commands.
      Last updated -
      3
      131
      36
      JavaScript
      MIT License
    • -
      security
      A
      license
      -
      quality
      Enhanced knowledge graph memory server for AI assistants that uses Neo4j as the backend storage engine, enabling powerful graph queries and efficient storage of user interaction information with full MCP protocol compatibility.
      Last updated -
      TypeScript
      MIT License
    • -
      security
      A
      license
      -
      quality
      A Model Context Protocol server that provides AI agents with persistent memory capabilities through Mem0, allowing them to store, retrieve, and semantically search memories.
      Last updated -
      2
      Python
      MIT License

    View all related MCP servers

    ID: pr4z3lyk3b