Skip to main content
Glama

Servidor MCP de Cognee

Instalación manual

Un proyecto de servidor MCP

  1. Clonar el repositorio de Cognee

  2. Instalar dependencias

brew install uv
cd cognee-mcp uv sync --dev --all-extras --reinstall
  1. Activar el venv con

source .venv/bin/activate
  1. Agregue el nuevo servidor a su configuración de Claude:

El archivo debe estar ubicado aquí: ~/Library/Application\ Support/Claude/

cd ~/Library/Application\ Support/Claude/

Debe crear claude_desktop_config.json en esta carpeta si no existe. Asegúrese de agregar sus rutas y la clave API de LLM al archivo a continuación. Use el editor de su elección, por ejemplo Nano:

nano claude_desktop_config.json
{ "mcpServers": { "cognee": { "command": "/Users/{user}/cognee/.venv/bin/uv", "args": [ "--directory", "/Users/{user}/cognee/cognee-mcp", "run", "cognee" ], "env": { "ENV": "local", "TOKENIZERS_PARALLELISM": "false", "LLM_API_KEY": "sk-" } } } }

Reinicie su escritorio Claude.

Instalación mediante herrería

Para instalar Cognee para Claude Desktop automáticamente a través de Smithery :

npx -y @smithery/cli install cognee --client claude

Defina la herramienta cognify en server.py Reinicie su escritorio Claude.

Para utilizar el depurador, ejecute:

mcp dev src/server.py

Inspector abierto con tiempo de espera transcurrido:

http://localhost:5173?timeout=120000

Para aplicar nuevos cambios mientras desarrollas cognee necesitas hacer lo siguiente:

  1. poetry lock en la carpeta Cognee

  2. uv sync --dev --all-extras --reinstall

  3. mcp dev src/server.py

Desarrollo

Para utilizar la compilación local de Cognee, ejecute en la raíz del repositorio de Cognee:

poetry build -o ./cognee-mcp/sources

Una vez finalizado el proceso de compilación, cambie la dependencia de la biblioteca cognee dentro de cognee-mcp/pyproject.toml de

cognee[postgres,codegraph,gemini,huggingface]==0.1.38

a

cognee[postgres,codegraph,gemini,huggingface]

Después de eso, agregue el siguiente fragmento al mismo archivo ( cognee-mcp/pyproject.toml ).

[tool.uv.sources] cognee = { path = "sources/cognee-0.1.38-py3-none-any.whl" }
One-click Deploy
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/topoteretes/cognee'

If you have feedback or need assistance with the MCP directory API, please join our Discord server