本体 MCP
Ontology MCP 是一个模型上下文协议 (MCP) 服务器,它将 GraphDB 的 SPARQL 端点和 Ollama 模型连接到 Claude。该工具允许 Claude 查询和操作本体数据并利用各种 AI 模型。

主要特点
SPARQL相关函数
执行 SPARQL 查询(
mcp_sparql_execute_query)执行 SPARQL 更新查询(
mcp_sparql_update)列出存储库(
mcp_sparql_list_repositories)查询图表列表(
mcp_sparql_list_graphs)获取资源信息(
mcp_sparql_get_resource_info)
与 Ollama 模型相关的功能
运行模型(
mcp_ollama_run)检查模型信息(
mcp_ollama_show)下载模型(
mcp_ollama_pull)获取模型列表(
mcp_ollama_list)删除模型(
mcp_ollama_rm)聊天完成(
mcp_ollama_chat_completion)检查容器状态(
mcp_ollama_status)
OpenAI相关功能
聊天完成(
mcp_openai_chat)创建图像(
mcp_openai_image)文本转语音(
mcp_openai_tts)语音转文本(
mcp_openai_transcribe)生成嵌入(
mcp_openai_embedding)
Google Gemini 相关功能
生成文本(
mcp_gemini_generate_text)聊天完成(
mcp_gemini_chat_completion)获取模型列表(
mcp_gemini_list_models)~~生成图像(
mcp_gemini_generate_images)- 使用 Imagen 模型~~(当前已禁用)~~生成视频(
mcp_gemini_generate_videos) - 使用 Veo 模型~~(当前已禁用)~~生成多模式内容(
mcp_gemini_generate_multimodal_content)~~(当前已禁用)
注意:由于 API 兼容性问题,Gemini 的图像创建、视频创建和多模式内容创建功能目前已被禁用。
支持的 Gemini 型号
模型转换 | 输入 | 功率输出 | 优化目标 |
Gemini 2.5 Flash 预览
| 音频、图片、视频、文本 | 文本 | 适应性思维,成本效益 |
Gemini 2.5 Pro 预览版
| 音频、图片、视频、文本 | 文本 | 增强思维和推理能力、多模式理解能力、高级编码能力 |
双子座 2.0 Flash
| 音频、图片、视频、文本 | 文本、图像(实验性)、音频(即将推出) | 下一代能力、速度、思维、实时流媒体、多模式创作 |
Gemini 2.0 Flash-Lite
| 音频、图片、视频、文本 | 文本 | 经济高效且低延迟 |
双子座 1.5 闪光灯
| 音频、图片、视频、文本 | 文本 | 适用于各种任务的快速且多功能的性能 |
双子座 1.5 Flash-8B
| 音频、图片、视频、文本 | 文本 | 高容量和低智力任务 |
双子座 1.5 专业版
| 音频、图片、视频、文本 | 文本 | 需要更多智能的复杂推理任务 |
双子座嵌入
| 文本 | 文本嵌入 | 测量文本字符串的相关性 |
Imagen 3
| 文本 | 图像 | 谷歌最先进的图像生成模型 |
Veo 2
| 文本、图片 | 视频 | 制作高质量的视频 |
Gemini 2.0 Flash Live
| 音频、视频、文本 | 文本、音频 | 低延迟、双向语音和视频交互 |
HTTP 请求函数
执行 HTTP 请求(
mcp_http_request) - 使用各种 HTTP 方法(如 GET、POST、PUT、DELETE 等)与外部 API 通信。
开始
1. 克隆存储库
2. 运行 GraphDB Docker 容器
通过从项目根目录运行以下命令来启动 GraphDB 服务器:
GraphDB Web 界面在http://localhost:7200运行。
3. 构建并运行 MCP 服务器
4.导入RDF数据
转到 GraphDB Web 界面( http://localhost:7200 )并执行以下操作:
创建存储库:
“设置”→“存储库”→“创建新存储库”
存储库 ID:
schemaorg-current-https(或您想要的任何名称)存储库标题:“Schema.org”
点击“创建”
获取示例数据:
选择您创建的存储库
“导入” → “RDF” → “上传 RDF 文件”
将示例文件上传到
imports目录(例如imports/example.ttl)点击“导入”
注意:该项目在
imports目录中包含示例 RDF 文件。
5. 设置 Claude Desktop
要在 Claude Desktop 中使用 Ontology MCP,您需要更新 MCP 设置文件:
打开 Claude Desktop 设置文件:
Windows:
%AppData%\Claude\claude_desktop_config.jsonmacOS:
~/Library/Application Support/Claude/claude_desktop_config.jsonLinux:
~/.config/Claude/claude_desktop_config.json
添加以下设置:
重要提示:将“args”中的路径更改为项目构建目录的实际绝对路径。
重启Claude桌面
执照
该项目根据 MIT 许可证提供。请参阅LICENSE文件以了解详细信息。
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Tools
模型上下文协议 (MCP) 服务器将 GraphDB 的 SPARQL 端点和 Ollama 模型连接到 Claude,使 Claude 能够在利用各种 AI 模型的同时查询和操作本体数据。
Related MCP Servers
- -security-license-qualityA MCP server that exposes GraphQL schema information to LLMs like Claude. This server allows an LLM to explore and understand large GraphQL schemas through a set of specialized tools, without needing to load the whole schema into the contextLast updated -1742MIT License
- Asecurity-licenseAqualityA Model Context Protocol (MCP) server that integrates Claude with the Terraform Cloud API, allowing Claude to manage your Terraform infrastructure through natural conversation.Last updated -6218MIT License
- Asecurity-licenseAqualityA Model Context Protocol (MCP) server that enables Claude or other LLMs to fetch content from URLs, supporting HTML, JSON, text, and images with configurable request parameters.Last updated -32MIT License
- Asecurity-licenseAqualityA Model Context Protocol (MCP) server that integrates with OmniFocus to enable Claude (or other MCP-compatible AI assistants) to interact with your tasks and projects.Last updated -73291