hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Integrations
Uses Docker to run GraphDB and provide SPARQL endpoint functionality
Provides access to Gemini models for text generation, chat completion, and model listing with support for various Gemini model variants
Enables running, managing, and interacting with Ollama models including execution, information retrieval, downloading, listing, deletion, and chat completion
本体 MCP
Ontology MCP 是一个模型上下文协议 (MCP) 服务器,它将 GraphDB 的 SPARQL 端点和 Ollama 模型连接到 Claude。该工具允许 Claude 查询和操作本体数据并利用各种 AI 模型。
主要特点
SPARQL相关函数
- 执行 SPARQL 查询(
mcp_sparql_execute_query
) - 执行 SPARQL 更新查询(
mcp_sparql_update
) - 列出存储库(
mcp_sparql_list_repositories
) - 查询图表列表(
mcp_sparql_list_graphs
) - 获取资源信息(
mcp_sparql_get_resource_info
)
与 Ollama 模型相关的功能
- 运行模型(
mcp_ollama_run
) - 检查模型信息(
mcp_ollama_show
) - 下载模型(
mcp_ollama_pull
) - 获取模型列表(
mcp_ollama_list
) - 删除模型(
mcp_ollama_rm
) - 聊天完成(
mcp_ollama_chat_completion
) - 检查容器状态(
mcp_ollama_status
)
OpenAI相关功能
- 聊天完成(
mcp_openai_chat
) - 创建图像(
mcp_openai_image
) - 文本转语音(
mcp_openai_tts
) - 语音转文本(
mcp_openai_transcribe
) - 生成嵌入(
mcp_openai_embedding
)
Google Gemini 相关功能
- 生成文本(
mcp_gemini_generate_text
) - 聊天完成(
mcp_gemini_chat_completion
) - 获取模型列表(
mcp_gemini_list_models
) - ~~生成图像(
mcp_gemini_generate_images
)- 使用 Imagen 模型~~(当前已禁用) - ~~生成视频(
mcp_gemini_generate_videos
) - 使用 Veo 模型~~(当前已禁用) - ~~生成多模式内容(
mcp_gemini_generate_multimodal_content
)~~(当前已禁用)
注意:由于 API 兼容性问题,Gemini 的图像创建、视频创建和多模式内容创建功能目前已被禁用。
支持的 Gemini 型号
模型转换 | 输入 | 功率输出 | 优化目标 |
---|---|---|---|
Gemini 2.5 Flash 预览gemini-2.5-flash-preview-04-17 | 音频、图片、视频、文本 | 文本 | 适应性思维,成本效益 |
Gemini 2.5 Pro 预览版gemini-2.5-pro-preview-03-25 | 音频、图片、视频、文本 | 文本 | 增强思维和推理能力、多模式理解能力、高级编码能力 |
双子座 2.0 Flash gemini-2.0-flash | 音频、图片、视频、文本 | 文本、图像(实验性)、音频(即将推出) | 下一代能力、速度、思维、实时流媒体、多模式创作 |
Gemini 2.0 Flash-Lite gemini-2.0-flash-lite | 音频、图片、视频、文本 | 文本 | 经济高效且低延迟 |
双子座 1.5 闪光灯gemini-1.5-flash | 音频、图片、视频、文本 | 文本 | 适用于各种任务的快速且多功能的性能 |
双子座 1.5 Flash-8B gemini-1.5-flash-8b | 音频、图片、视频、文本 | 文本 | 高容量和低智力任务 |
双子座 1.5 专业版gemini-1.5-pro | 音频、图片、视频、文本 | 文本 | 需要更多智能的复杂推理任务 |
双子座嵌入gemini-embedding-exp | 文本 | 文本嵌入 | 测量文本字符串的相关性 |
Imagen 3 imagen-3.0-generate-002 | 文本 | 图像 | 谷歌最先进的图像生成模型 |
Veo 2 veo-2.0-generate-001 | 文本、图片 | 视频 | 制作高质量的视频 |
Gemini 2.0 Flash Live gemini-2.0-flash-live-001 | 音频、视频、文本 | 文本、音频 | 低延迟、双向语音和视频交互 |
HTTP 请求函数
- 执行 HTTP 请求(
mcp_http_request
) - 使用各种 HTTP 方法(如 GET、POST、PUT、DELETE 等)与外部 API 通信。
开始
1. 克隆存储库
2. 运行 GraphDB Docker 容器
通过从项目根目录运行以下命令来启动 GraphDB 服务器:
GraphDB Web 界面在http://localhost:7200运行。
3. 构建并运行 MCP 服务器
4.导入RDF数据
转到 GraphDB Web 界面( http://localhost:7200 )并执行以下操作:
- 创建存储库:
- “设置”→“存储库”→“创建新存储库”
- 存储库 ID:
schemaorg-current-https
(或您想要的任何名称) - 存储库标题:“Schema.org”
- 点击“创建”
- 获取示例数据:
- 选择您创建的存储库
- “导入” → “RDF” → “上传 RDF 文件”
- 将示例文件上传到
imports
目录(例如imports/example.ttl
) - 点击“导入”
注意:该项目在
imports
目录中包含示例 RDF 文件。
5. 设置 Claude Desktop
要在 Claude Desktop 中使用 Ontology MCP,您需要更新 MCP 设置文件:
- 打开 Claude Desktop 设置文件:
- Windows:
%AppData%\Claude\claude_desktop_config.json
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- Linux:
~/.config/Claude/claude_desktop_config.json
- Windows:
- 添加以下设置:
重要提示:将“args”中的路径更改为项目构建目录的实际绝对路径。
- 重启Claude桌面
执照
该项目根据 MIT 许可证提供。请参阅LICENSE文件以了解详细信息。
You must be authenticated.
Tools
模型上下文协议 (MCP) 服务器将 GraphDB 的 SPARQL 端点和 Ollama 模型连接到 Claude,使 Claude 能够在利用各种 AI 模型的同时查询和操作本体数据。