Skip to main content
Glama

сервер MCP cognee

Установка вручную

Проект сервера MCP

  1. Клонировать репозиторий cognee

  2. Установить зависимости

brew install uv
cd cognee-mcp uv sync --dev --all-extras --reinstall
  1. Активируйте venv с помощью

source .venv/bin/activate
  1. Добавьте новый сервер в конфигурацию Клода:

Файл должен находиться здесь: ~/Library/Application\ Support/Claude/

cd ~/Library/Application\ Support/Claude/

Вам необходимо создать claude_desktop_config.json в этой папке, если он не существует. Обязательно добавьте ваши пути и ключ LLM API в файл ниже. Используйте редактор по вашему выбору, например Nano:

nano claude_desktop_config.json
{ "mcpServers": { "cognee": { "command": "/Users/{user}/cognee/.venv/bin/uv", "args": [ "--directory", "/Users/{user}/cognee/cognee-mcp", "run", "cognee" ], "env": { "ENV": "local", "TOKENIZERS_PARALLELISM": "false", "LLM_API_KEY": "sk-" } } } }

Перезагрузите рабочий стол Клода.

Установка через Smithery

Чтобы автоматически установить Cognee для Claude Desktop через Smithery :

npx -y @smithery/cli install cognee --client claude

Определите инструмент cognify в server.py. Перезагрузите рабочий стол Claude.

Чтобы использовать отладчик, выполните:

mcp dev src/server.py

Откройте инспектор с истекшим временем ожидания:

http://localhost:5173?timeout=120000

Чтобы применить новые изменения при разработке cognee, вам необходимо сделать:

  1. poetry lock в папке cognee

  2. uv sync --dev --all-extras --reinstall

  3. mcp dev src/server.py

Разработка

Чтобы использовать локальную сборку cognee, выполните в корне репозитория cognee:

poetry build -o ./cognee-mcp/sources

После завершения процесса сборки измените зависимость библиотеки cognee внутри cognee-mcp/pyproject.toml с

cognee[postgres,codegraph,gemini,huggingface]==0.1.38

к

cognee[postgres,codegraph,gemini,huggingface]

После этого добавьте следующий фрагмент в тот же файл ( cognee-mcp/pyproject.toml ).

[tool.uv.sources] cognee = { path = "sources/cognee-0.1.38-py3-none-any.whl" }
Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/topoteretes/cognee'

If you have feedback or need assistance with the MCP directory API, please join our Discord server