Skip to main content
Glama

cognee-mcp

코그니 MCP 서버

수동 설치

MCP 서버 프로젝트

  1. Cognee 저장소를 복제합니다
  2. 종속성 설치

지엑스피1

cd cognee-mcp uv sync --dev --all-extras --reinstall
  1. venv를 활성화하세요
source .venv/bin/activate
  1. Claude 구성에 새 서버를 추가합니다.

해당 파일은 다음 위치에 있어야 합니다: ~/Library/Application\ Support/Claude/

cd ~/Library/Application\ Support/Claude/

claude_desktop_config.json이 없으면 이 폴더에 만들어야 합니다. 아래 파일에 경로와 LLM API 키를 추가해야 합니다. 예를 들어 Nano와 같이 원하는 편집기를 사용하세요.

nano claude_desktop_config.json
{ "mcpServers": { "cognee": { "command": "/Users/{user}/cognee/.venv/bin/uv", "args": [ "--directory", "/Users/{user}/cognee/cognee-mcp", "run", "cognee" ], "env": { "ENV": "local", "TOKENIZERS_PARALLELISM": "false", "LLM_API_KEY": "sk-" } } } }

Claude 데스크탑을 다시 시작하세요.

Smithery를 통해 설치

Smithery를 통해 Claude Desktop용 Cognee를 자동으로 설치하려면:

npx -y @smithery/cli install cognee --client claude

server.py에서 cognify 도구를 정의합니다. Claude 데스크톱을 다시 시작합니다.

디버거를 사용하려면 다음을 실행하세요.

mcp dev src/server.py

시간 초과가 지나서 검사기를 엽니다.

http://localhost:5173?timeout=120000

인지 발달 중에 새로운 변경 사항을 적용하려면 다음을 수행해야 합니다.

  1. 코그니 폴더에 poetry lock
  2. uv sync --dev --all-extras --reinstall
  3. mcp dev src/server.py

개발

로컬 Cognee 빌드를 사용하려면 Cognee 저장소의 루트에서 실행하세요.

poetry build -o ./cognee-mcp/sources

빌드 프로세스가 완료된 후 cognee-mcp/pyproject.toml 내부의 cognee 라이브러리 종속성을 변경합니다.

cognee[postgres,codegraph,gemini,huggingface]==0.1.38

에게

cognee[postgres,codegraph,gemini,huggingface]

그런 다음 같은 파일( cognee-mcp/pyproject.toml )에 다음 스니펫을 추가합니다.

[tool.uv.sources] cognee = { path = "sources/cognee-0.1.38-py3-none-any.whl" }
Deploy Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

local-only server

The server can only run on the client's local machine because it depends on local resources.

다양한 그래프 및 벡터 저장소를 사용하고 30개 이상의 데이터 소스에서 수집을 허용하는 AI 앱 및 에이전트용 메모리 관리자

  1. 수동 설치
    1. MCP 서버 프로젝트
      1. Smithery를 통해 설치
      2. 개발

    Related MCP Servers

    • A
      security
      A
      license
      A
      quality
      A flexible memory system for AI applications that supports multiple LLM providers and can be used either as an MCP server or as a direct library integration, enabling autonomous memory management without explicit commands.
      Last updated -
      3
      173
      72
      MIT License
    • -
      security
      F
      license
      -
      quality
      A knowledge-graph-based memory system for AI agents that enables persistent information storage between conversations.
      Last updated -
      6
    • A
      security
      A
      license
      A
      quality
      Stores AI memories as Markdown files for visualization in Obsidian's graph view, allowing users to create knowledge graphs with entities, relations, and observations.
      Last updated -
      9
      5
      MIT License
    • -
      security
      F
      license
      -
      quality
      Provides local-first memory storage and retrieval with automatic embedding, vector search, and knowledge graph capabilities. Enables agents to store memories locally and retrieve relevant context through hybrid search with optional Neo4j graph traversal.
      Last updated -
      • Apple
      • Linux

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/topoteretes/cognee'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server