Skip to main content
Glama

Memgraph MCP Server

Official
by memgraph

[!重要]
このリポジトリは、ツールの重複を避けるためにMemgraph AI Toolkitモノレポに統合されました。
1 か月後に削除されます。今後の開発では、ここでのMCP 統合に従ってください。また、そのリポジトリで問題や PR を自由に開いてください。

🚀 Memgraph MCP サーバー

Memgraph MCP サーバーは、Memgraph を LLM に接続するために設計されたモデル コンテキスト プロトコル (MCP) の軽量サーバー実装です。

mcpサーバー

⚡ クイックスタート

📹 Memgraph MCP サーバー クイックスタート ビデオ

1. Memgraph MCPサーバーを実行する

  1. uvをインストールし、 uv venvvenvを作成します。.venv .venv\Scripts\activateで仮想環境をアクティブ化します。
  2. 依存関係をインストール: uv add "mcp[cli]" httpx
  3. Memgraph MCP サーバーを実行します: uv run server.py

2. MCPクライアントを実行する

  1. Claude for Desktopをインストールします。
  2. Claude config に Memgraph サーバーを追加します。

macOS/Linux

code ~/Library/Application\ Support/Claude/claude_desktop_config.json

ウィンドウズ

code $env:AppData\Claude\claude_desktop_config.json

設定例:

{ "mcpServers": { "mpc-memgraph": { "command": "/Users/katelatte/.local/bin/uv", "args": [ "--directory", "/Users/katelatte/projects/mcp-memgraph", "run", "server.py" ] } } }

[!注記]
コマンドフィールドにuv実行ファイルへのフルパスを入力する必要がある場合があります。macOS/Linuxの場合はwhich uv 、Windowsの場合はwhere uv実行することで取得できます。サーバーへの絶対パスを必ず入力してください。

3. データベースとチャットする

  1. Memgraph MAGE を実行します。
    docker run -p 7687:7687 memgraph/memgraph-mage --schema-info-enabled=True
    LLM がSHOW SCHEMA INFOクエリを実行できるように、 --schema-info-enabled構成設定がTrueに設定されています。
  2. Claude Desktop を開いて、Memgraph のツールとリソースの一覧を確認してください。ぜひお試しください!( Memgraph Labデータセットからダミーデータを読み込むことができます)

🔧ツール

実行クエリ()

Memgraph に対して Cypher クエリを実行します。

🗃️ リソース

get_schema()

Memgraph スキーマ情報を取得します (前提条件: --schema-info-enabled=True )。

🗺️ ロードマップ

Memgraph MCPサーバーはまだ始まったばかりです。私たちは、その機能拡張と、Memgraphを最新のAIワークフローにさらに容易に統合するための開発に積極的に取り組んでいます。近い将来、JavaScriptベースの環境をより適切にサポートするために、TypeScript版のサーバーをリリースする予定です。さらに、このプロジェクトをAIツールキットの中央リポジトリに移行し、LangChain、LlamaIndex、MCP向けの他のツールや統合機能と連携させる予定です。私たちの目標は、Memgraphをコアとしたグラフベースのアプリケーションやインテリジェントエージェントをシームレスに構築できる、統合されたオープンソースツールキットを提供することです。

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Memgraph データベースを LLM に接続し、ユーザーが自然言語を通じてグラフ データベースと対話できるようにするモデル コンテキスト プロトコルの軽量サーバー実装。

  1. ⚡ クイックスタート
    1. Memgraph MCPサーバーを実行する
    2. MCPクライアントを実行する
    3. データベースとチャットする
  2. 🔧ツール
    1. 実行クエリ()
  3. 🗃️ リソース
    1. get\_schema()
  4. 🗺️ ロードマップ

    Related MCP Servers

    • -
      security
      A
      license
      -
      quality
      A Model Context Protocol server that enables LLMs to interact directly with MongoDB databases, allowing users to query collections, inspect schemas, and manage data through natural language.
      Last updated -
      340
      TypeScript
      MIT License
      • Apple
    • -
      security
      A
      license
      -
      quality
      A Model Context Protocol server that enables LLMs to interact directly with MongoDB databases, allowing users to query collections, inspect schemas, and manage data through natural language.
      Last updated -
      340
      MIT License
      • Apple
    • -
      security
      A
      license
      -
      quality
      A Model Context Protocol server that enables LLMs to interact with GraphQL APIs by providing schema introspection and query execution capabilities.
      Last updated -
      733
      1
      MIT License
      • Apple
    • -
      security
      A
      license
      -
      quality
      A Model Context Protocol server that enables LLMs to interact with databases (currently MongoDB) through natural language, supporting operations like querying, inserting, deleting documents, and running aggregation pipelines.
      Last updated -
      TypeScript
      MIT License
      • Apple

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/memgraph/mcp-memgraph'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server