Skip to main content
Glama

cognee-mcp

コグニーMCPサーバー

手動でインストールする

MCP サーバー プロジェクト

  1. cogneeリポジトリをクローンする
  2. 依存関係をインストールする
brew install uv
cd cognee-mcp uv sync --dev --all-extras --reinstall
  1. venvをアクティブにする
source .venv/bin/activate
  1. 新しいサーバーを Claude 構成に追加します。

ファイルはここにあります: ~/Library/Application\ Support/Claude/

cd ~/Library/Application\ Support/Claude/

claude_desktop_config.json が存在しない場合は、このフォルダーに作成する必要があります。以下のファイルにパスと LLM API キーを必ず追加してください。Nano などの任意のエディターを使用してください。

nano claude_desktop_config.json
{ "mcpServers": { "cognee": { "command": "/Users/{user}/cognee/.venv/bin/uv", "args": [ "--directory", "/Users/{user}/cognee/cognee-mcp", "run", "cognee" ], "env": { "ENV": "local", "TOKENIZERS_PARALLELISM": "false", "LLM_API_KEY": "sk-" } } } }

Claude デスクトップを再起動します。

Smithery経由でインストール

Smithery経由で Claude Desktop 用の Cognee を自動的にインストールするには:

npx -y @smithery/cli install cognee --client claude

server.py で cognify ツールを定義し、Claude デスクトップを再起動します。

デバッガーを使用するには、次を実行します。

mcp dev src/server.py

タイムアウトが経過したインスペクターを開きます:

http://localhost:5173?timeout=120000

cognee の開発中に新しい変更を適用するには、次の操作を行う必要があります。

  1. コニーフォルダ内のpoetry lock
  2. uv sync --dev --all-extras --reinstall
  3. mcp dev src/server.py

発達

ローカル cognee ビルドを使用するには、cognee リポジトリのルートで実行します。

poetry build -o ./cognee-mcp/sources

ビルドプロセスが完了したら、 cognee-mcp/pyproject.toml内のcogneeライブラリの依存関係を次のように変更します。

cognee[postgres,codegraph,gemini,huggingface]==0.1.38

cognee[postgres,codegraph,gemini,huggingface]

その後、同じファイル ( cognee-mcp/pyproject.toml ) に次のスニペットを追加します。

[tool.uv.sources] cognee = { path = "sources/cognee-0.1.38-py3-none-any.whl" }

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

local-only server

The server can only run on the client's local machine because it depends on local resources.

さまざまなグラフおよびベクターストアを使用し、30以上のデータソースからの取り込みを可能にするAIアプリおよびエージェント用のメモリマネージャー

  1. 手動でインストールする
    1. MCP サーバー プロジェクト
      1. Smithery経由でインストール
      2. 発達

    Related MCP Servers

    • A
      security
      A
      license
      A
      quality
      Memory Bank Server provides a set of tools and resources for AI assistants to interact with Memory Banks. Memory Banks are structured repositories of information that help maintain context and track progress across multiple sessions.
      Last updated -
      15
      111
      13
      TypeScript
      MIT License
    • A
      security
      A
      license
      A
      quality
      A flexible memory system for AI applications that supports multiple LLM providers and can be used either as an MCP server or as a direct library integration, enabling autonomous memory management without explicit commands.
      Last updated -
      3
      211
      51
      JavaScript
      MIT License
    • -
      security
      A
      license
      -
      quality
      Allows AI models to interact with SourceSync.ai's knowledge management platform to organize, ingest, retrieve, and search content in knowledge bases.
      Last updated -
      14
      1
      TypeScript
      MIT License
      • Apple
      • Linux
    • -
      security
      F
      license
      -
      quality
      Implements long-term memory capabilities for AI assistants using PostgreSQL with pgvector for efficient vector similarity search, enabling semantic retrieval of stored information.
      Last updated -
      1
      JavaScript
      • Apple
      • Linux

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/topoteretes/cognee'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server