Skip to main content
Glama

сервер MCP cognee

Установка вручную

Проект сервера MCP

  1. Клонировать репозиторий cognee

  2. Установить зависимости

brew install uv
cd cognee-mcp uv sync --dev --all-extras --reinstall
  1. Активируйте venv с помощью

source .venv/bin/activate
  1. Добавьте новый сервер в конфигурацию Клода:

Файл должен находиться здесь: ~/Library/Application\ Support/Claude/

cd ~/Library/Application\ Support/Claude/

Вам необходимо создать claude_desktop_config.json в этой папке, если он не существует. Обязательно добавьте ваши пути и ключ LLM API в файл ниже. Используйте редактор по вашему выбору, например Nano:

nano claude_desktop_config.json
{ "mcpServers": { "cognee": { "command": "/Users/{user}/cognee/.venv/bin/uv", "args": [ "--directory", "/Users/{user}/cognee/cognee-mcp", "run", "cognee" ], "env": { "ENV": "local", "TOKENIZERS_PARALLELISM": "false", "LLM_API_KEY": "sk-" } } } }

Перезагрузите рабочий стол Клода.

Установка через Smithery

Чтобы автоматически установить Cognee для Claude Desktop через Smithery :

npx -y @smithery/cli install cognee --client claude

Определите инструмент cognify в server.py. Перезагрузите рабочий стол Claude.

Чтобы использовать отладчик, выполните:

mcp dev src/server.py

Откройте инспектор с истекшим временем ожидания:

http://localhost:5173?timeout=120000

Чтобы применить новые изменения при разработке cognee, вам необходимо сделать:

  1. poetry lock в папке cognee

  2. uv sync --dev --all-extras --reinstall

  3. mcp dev src/server.py

Разработка

Чтобы использовать локальную сборку cognee, выполните в корне репозитория cognee:

poetry build -o ./cognee-mcp/sources

После завершения процесса сборки измените зависимость библиотеки cognee внутри cognee-mcp/pyproject.toml с

cognee[postgres,codegraph,gemini,huggingface]==0.1.38

к

cognee[postgres,codegraph,gemini,huggingface]

После этого добавьте следующий фрагмент в тот же файл ( cognee-mcp/pyproject.toml ).

[tool.uv.sources] cognee = { path = "sources/cognee-0.1.38-py3-none-any.whl" }
Deploy Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Related MCP Servers

  • A
    security
    A
    license
    A
    quality
    A flexible memory system for AI applications that supports multiple LLM providers and can be used either as an MCP server or as a direct library integration, enabling autonomous memory management without explicit commands.
    Last updated -
    3
    94
    81
    MIT License
  • -
    security
    F
    license
    -
    quality
    A knowledge-graph-based memory system for AI agents that enables persistent information storage between conversations.
    Last updated -
    6
  • A
    security
    A
    license
    A
    quality
    Stores AI memories as Markdown files for visualization in Obsidian's graph view, allowing users to create knowledge graphs with entities, relations, and observations.
    Last updated -
    9
    12
    MIT License
  • -
    security
    F
    license
    -
    quality
    Provides local-first memory storage and retrieval with automatic embedding, vector search, and knowledge graph capabilities. Enables agents to store memories locally and retrieve relevant context through hybrid search with optional Neo4j graph traversal.
    Last updated -
    • Apple
    • Linux

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/topoteretes/cognee'

If you have feedback or need assistance with the MCP directory API, please join our Discord server