本体 MCP
Ontology MCP 是一个模型上下文协议 (MCP) 服务器,它将 GraphDB 的 SPARQL 端点和 Ollama 模型连接到 Claude。该工具允许 Claude 查询和操作本体数据并利用各种 AI 模型。
主要特点
SPARQL相关函数
- 执行 SPARQL 查询(
mcp_sparql_execute_query
) - 执行 SPARQL 更新查询(
mcp_sparql_update
) - 列出存储库(
mcp_sparql_list_repositories
) - 查询图表列表(
mcp_sparql_list_graphs
) - 获取资源信息(
mcp_sparql_get_resource_info
)
与 Ollama 模型相关的功能
- 运行模型(
mcp_ollama_run
) - 检查模型信息(
mcp_ollama_show
) - 下载模型(
mcp_ollama_pull
) - 获取模型列表(
mcp_ollama_list
) - 删除模型(
mcp_ollama_rm
) - 聊天完成(
mcp_ollama_chat_completion
) - 检查容器状态(
mcp_ollama_status
)
OpenAI相关功能
- 聊天完成(
mcp_openai_chat
) - 创建图像(
mcp_openai_image
) - 文本转语音(
mcp_openai_tts
) - 语音转文本(
mcp_openai_transcribe
) - 生成嵌入(
mcp_openai_embedding
)
Google Gemini 相关功能
- 生成文本(
mcp_gemini_generate_text
) - 聊天完成(
mcp_gemini_chat_completion
) - 获取模型列表(
mcp_gemini_list_models
) - ~~生成图像(
mcp_gemini_generate_images
)- 使用 Imagen 模型~~(当前已禁用) - ~~生成视频(
mcp_gemini_generate_videos
) - 使用 Veo 模型~~(当前已禁用) - ~~生成多模式内容(
mcp_gemini_generate_multimodal_content
)~~(当前已禁用)
注意:由于 API 兼容性问题,Gemini 的图像创建、视频创建和多模式内容创建功能目前已被禁用。
支持的 Gemini 型号
模型转换 | 输入 | 功率输出 | 优化目标 |
---|---|---|---|
Gemini 2.5 Flash 预览gemini-2.5-flash-preview-04-17 | 音频、图片、视频、文本 | 文本 | 适应性思维,成本效益 |
Gemini 2.5 Pro 预览版gemini-2.5-pro-preview-03-25 | 音频、图片、视频、文本 | 文本 | 增强思维和推理能力、多模式理解能力、高级编码能力 |
双子座 2.0 Flash gemini-2.0-flash | 音频、图片、视频、文本 | 文本、图像(实验性)、音频(即将推出) | 下一代能力、速度、思维、实时流媒体、多模式创作 |
Gemini 2.0 Flash-Lite gemini-2.0-flash-lite | 音频、图片、视频、文本 | 文本 | 经济高效且低延迟 |
双子座 1.5 闪光灯gemini-1.5-flash | 音频、图片、视频、文本 | 文本 | 适用于各种任务的快速且多功能的性能 |
双子座 1.5 Flash-8B gemini-1.5-flash-8b | 音频、图片、视频、文本 | 文本 | 高容量和低智力任务 |
双子座 1.5 专业版gemini-1.5-pro | 音频、图片、视频、文本 | 文本 | 需要更多智能的复杂推理任务 |
双子座嵌入gemini-embedding-exp | 文本 | 文本嵌入 | 测量文本字符串的相关性 |
Imagen 3 imagen-3.0-generate-002 | 文本 | 图像 | 谷歌最先进的图像生成模型 |
Veo 2 veo-2.0-generate-001 | 文本、图片 | 视频 | 制作高质量的视频 |
Gemini 2.0 Flash Live gemini-2.0-flash-live-001 | 音频、视频、文本 | 文本、音频 | 低延迟、双向语音和视频交互 |
HTTP 请求函数
- 执行 HTTP 请求(
mcp_http_request
) - 使用各种 HTTP 方法(如 GET、POST、PUT、DELETE 等)与外部 API 通信。
开始
1. 克隆存储库
2. 运行 GraphDB Docker 容器
通过从项目根目录运行以下命令来启动 GraphDB 服务器:
GraphDB Web 界面在http://localhost:7200运行。
3. 构建并运行 MCP 服务器
4.导入RDF数据
转到 GraphDB Web 界面( http://localhost:7200 )并执行以下操作:
- 创建存储库:
- “设置”→“存储库”→“创建新存储库”
- 存储库 ID:
schemaorg-current-https
(或您想要的任何名称) - 存储库标题:“Schema.org”
- 点击“创建”
- 获取示例数据:
- 选择您创建的存储库
- “导入” → “RDF” → “上传 RDF 文件”
- 将示例文件上传到
imports
目录(例如imports/example.ttl
) - 点击“导入”
注意:该项目在
imports
目录中包含示例 RDF 文件。
5. 设置 Claude Desktop
要在 Claude Desktop 中使用 Ontology MCP,您需要更新 MCP 设置文件:
- 打开 Claude Desktop 设置文件:
- Windows:
%AppData%\Claude\claude_desktop_config.json
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- Linux:
~/.config/Claude/claude_desktop_config.json
- Windows:
- 添加以下设置:
重要提示:将“args”中的路径更改为项目构建目录的实际绝对路径。
- 重启Claude桌面
执照
该项目根据 MIT 许可证提供。请参阅LICENSE文件以了解详细信息。
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Tools
模型上下文协议 (MCP) 服务器将 GraphDB 的 SPARQL 端点和 Ollama 模型连接到 Claude,使 Claude 能够在利用各种 AI 模型的同时查询和操作本体数据。
Related MCP Servers
- -securityAlicense-qualityA MCP server that exposes GraphQL schema information to LLMs like Claude. This server allows an LLM to explore and understand large GraphQL schemas through a set of specialized tools, without needing to load the whole schema into the contextLast updated -5826JavaScriptMIT License
- -securityAlicense-qualityA Model Context Protocol server that enables LLMs to interact with GraphQL APIs by providing schema introspection and query execution capabilities.Last updated -7331MIT License
- AsecurityAlicenseAqualityA Model Context Protocol server that provides read-only access to Ontotext GraphDB, enabling LLMs to explore RDF graphs and execute SPARQL queries.Last updated -26JavaScriptGPL 3.0
FalkorDB MCP Serverofficial
-securityAlicense-qualityAllows AI models to query and interact with FalkorDB graph databases through the Model Context Protocol (MCP) specification.Last updated -4TypeScriptMIT License