Skip to main content
Glama

cognee-mcp

코그니 MCP 서버

수동 설치

MCP 서버 프로젝트

  1. Cognee 저장소를 복제합니다
  2. 종속성 설치

지엑스피1

cd cognee-mcp uv sync --dev --all-extras --reinstall
  1. venv를 활성화하세요
source .venv/bin/activate
  1. Claude 구성에 새 서버를 추가합니다.

해당 파일은 다음 위치에 있어야 합니다: ~/Library/Application\ Support/Claude/

cd ~/Library/Application\ Support/Claude/

claude_desktop_config.json이 없으면 이 폴더에 만들어야 합니다. 아래 파일에 경로와 LLM API 키를 추가해야 합니다. 예를 들어 Nano와 같이 원하는 편집기를 사용하세요.

nano claude_desktop_config.json
{ "mcpServers": { "cognee": { "command": "/Users/{user}/cognee/.venv/bin/uv", "args": [ "--directory", "/Users/{user}/cognee/cognee-mcp", "run", "cognee" ], "env": { "ENV": "local", "TOKENIZERS_PARALLELISM": "false", "LLM_API_KEY": "sk-" } } } }

Claude 데스크탑을 다시 시작하세요.

Smithery를 통해 설치

Smithery를 통해 Claude Desktop용 Cognee를 자동으로 설치하려면:

npx -y @smithery/cli install cognee --client claude

server.py에서 cognify 도구를 정의합니다. Claude 데스크톱을 다시 시작합니다.

디버거를 사용하려면 다음을 실행하세요.

mcp dev src/server.py

시간 초과가 지나서 검사기를 엽니다.

http://localhost:5173?timeout=120000

인지 발달 중에 새로운 변경 사항을 적용하려면 다음을 수행해야 합니다.

  1. 코그니 폴더에 poetry lock
  2. uv sync --dev --all-extras --reinstall
  3. mcp dev src/server.py

개발

로컬 Cognee 빌드를 사용하려면 Cognee 저장소의 루트에서 실행하세요.

poetry build -o ./cognee-mcp/sources

빌드 프로세스가 완료된 후 cognee-mcp/pyproject.toml 내부의 cognee 라이브러리 종속성을 변경합니다.

cognee[postgres,codegraph,gemini,huggingface]==0.1.38

에게

cognee[postgres,codegraph,gemini,huggingface]

그런 다음 같은 파일( cognee-mcp/pyproject.toml )에 다음 스니펫을 추가합니다.

[tool.uv.sources] cognee = { path = "sources/cognee-0.1.38-py3-none-any.whl" }

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

local-only server

The server can only run on the client's local machine because it depends on local resources.

다양한 그래프 및 벡터 저장소를 사용하고 30개 이상의 데이터 소스에서 수집을 허용하는 AI 앱 및 에이전트용 메모리 관리자

  1. 수동 설치
    1. MCP 서버 프로젝트
      1. Smithery를 통해 설치
      2. 개발

    Related MCP Servers

    • A
      security
      A
      license
      A
      quality
      Memory Bank Server provides a set of tools and resources for AI assistants to interact with Memory Banks. Memory Banks are structured repositories of information that help maintain context and track progress across multiple sessions.
      Last updated -
      15
      111
      13
      TypeScript
      MIT License
    • A
      security
      A
      license
      A
      quality
      A flexible memory system for AI applications that supports multiple LLM providers and can be used either as an MCP server or as a direct library integration, enabling autonomous memory management without explicit commands.
      Last updated -
      3
      211
      51
      JavaScript
      MIT License
    • -
      security
      A
      license
      -
      quality
      Allows AI models to interact with SourceSync.ai's knowledge management platform to organize, ingest, retrieve, and search content in knowledge bases.
      Last updated -
      14
      1
      TypeScript
      MIT License
      • Apple
      • Linux
    • -
      security
      F
      license
      -
      quality
      Implements long-term memory capabilities for AI assistants using PostgreSQL with pgvector for efficient vector similarity search, enabling semantic retrieval of stored information.
      Last updated -
      1
      JavaScript
      • Apple
      • Linux

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/topoteretes/cognee'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server