Skip to main content
Glama

NebulaGraph 模型上下文协议服务器

提供对NebulaGraph 的访问的模型上下文协议 (MCP) 服务器实现。

PyPI - 版本 PyPI - Python 版本 Lint 和测试

特征

  • 无缝访问 NebulaGraph 3.x。

  • 为图形探索做好准备,你知道,模式、查询和一些快捷算法。

  • 遵循模型上下文协议,准备与 LLM 工具系统集成。

  • 简单的命令行界面,支持通过环境变量和.env 文件进行配置。

LlamaIndex 与 NebulaGraph MCP

Related MCP server: MongoDB MCP Server for LLMs

安装

pip install nebulagraph-mcp-server

用法

nebulagraph-mcp-server将从.env加载配置,例如:

NEBULA_VERSION=v3 # only v3 is supported NEBULA_HOST=<your-nebulagraph-server-host> NEBULA_PORT=<your-nebulagraph-server-port> NEBULA_USER=<your-nebulagraph-server-user> NEBULA_PASSWORD=<your-nebulagraph-server-password>

它要求NEBULA_VERSION的值等于 v3,直到我们准备好 v5。

发展

npx @modelcontextprotocol/inspector \ uv run nebulagraph-mcp-server

致谢

该 repo 的布局和工作流程是从mcp-server-opendal复制而来的。

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/nebula-contrib/nebulagraph-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server