Skip to main content
Glama

cognee-mcp

Servidor MCP de Cognee

Instalación manual

Un proyecto de servidor MCP

  1. Clonar el repositorio de Cognee
  2. Instalar dependencias
brew install uv
cd cognee-mcp uv sync --dev --all-extras --reinstall
  1. Activar el venv con
source .venv/bin/activate
  1. Agregue el nuevo servidor a su configuración de Claude:

El archivo debe estar ubicado aquí: ~/Library/Application\ Support/Claude/

cd ~/Library/Application\ Support/Claude/

Debe crear claude_desktop_config.json en esta carpeta si no existe. Asegúrese de agregar sus rutas y la clave API de LLM al archivo a continuación. Use el editor de su elección, por ejemplo Nano:

nano claude_desktop_config.json
{ "mcpServers": { "cognee": { "command": "/Users/{user}/cognee/.venv/bin/uv", "args": [ "--directory", "/Users/{user}/cognee/cognee-mcp", "run", "cognee" ], "env": { "ENV": "local", "TOKENIZERS_PARALLELISM": "false", "LLM_API_KEY": "sk-" } } } }

Reinicie su escritorio Claude.

Instalación mediante herrería

Para instalar Cognee para Claude Desktop automáticamente a través de Smithery :

npx -y @smithery/cli install cognee --client claude

Defina la herramienta cognify en server.py Reinicie su escritorio Claude.

Para utilizar el depurador, ejecute:

mcp dev src/server.py

Inspector abierto con tiempo de espera transcurrido:

http://localhost:5173?timeout=120000

Para aplicar nuevos cambios mientras desarrollas cognee necesitas hacer lo siguiente:

  1. poetry lock en la carpeta Cognee
  2. uv sync --dev --all-extras --reinstall
  3. mcp dev src/server.py

Desarrollo

Para utilizar la compilación local de Cognee, ejecute en la raíz del repositorio de Cognee:

poetry build -o ./cognee-mcp/sources

Una vez finalizado el proceso de compilación, cambie la dependencia de la biblioteca cognee dentro de cognee-mcp/pyproject.toml de

cognee[postgres,codegraph,gemini,huggingface]==0.1.38

a

cognee[postgres,codegraph,gemini,huggingface]

Después de eso, agregue el siguiente fragmento al mismo archivo ( cognee-mcp/pyproject.toml ).

[tool.uv.sources] cognee = { path = "sources/cognee-0.1.38-py3-none-any.whl" }

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

local-only server

The server can only run on the client's local machine because it depends on local resources.

Administrador de memoria para aplicaciones de IA y agentes que utilizan varios almacenes de gráficos y vectores y permiten la ingesta de más de 30 fuentes de datos

  1. Instalación manual
    1. Un proyecto de servidor MCP
      1. Instalación mediante herrería
      2. Desarrollo

    Related MCP Servers

    • A
      security
      A
      license
      A
      quality
      Memory Bank Server provides a set of tools and resources for AI assistants to interact with Memory Banks. Memory Banks are structured repositories of information that help maintain context and track progress across multiple sessions.
      Last updated -
      15
      111
      13
      TypeScript
      MIT License
    • A
      security
      A
      license
      A
      quality
      A flexible memory system for AI applications that supports multiple LLM providers and can be used either as an MCP server or as a direct library integration, enabling autonomous memory management without explicit commands.
      Last updated -
      3
      211
      51
      JavaScript
      MIT License
    • -
      security
      A
      license
      -
      quality
      Allows AI models to interact with SourceSync.ai's knowledge management platform to organize, ingest, retrieve, and search content in knowledge bases.
      Last updated -
      14
      1
      TypeScript
      MIT License
      • Apple
      • Linux
    • -
      security
      F
      license
      -
      quality
      Implements long-term memory capabilities for AI assistants using PostgreSQL with pgvector for efficient vector similarity search, enabling semantic retrieval of stored information.
      Last updated -
      1
      JavaScript
      • Apple
      • Linux

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/topoteretes/cognee'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server