Ontology MCP

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Integrations

  • Uses Docker to run GraphDB and provide SPARQL endpoint functionality

  • Provides access to Gemini models for text generation, chat completion, and model listing with support for various Gemini model variants

  • Enables running, managing, and interacting with Ollama models including execution, information retrieval, downloading, listing, deletion, and chat completion

本体 MCP

Ontology MCP 是一个模型上下文协议 (MCP) 服务器,它将 GraphDB 的 SPARQL 端点和 Ollama 模型连接到 Claude。该工具允许 Claude 查询和操作本体数据并利用各种 AI 模型。

主要特点

SPARQL相关函数

  • 执行 SPARQL 查询( mcp_sparql_execute_query
  • 执行 SPARQL 更新查询( mcp_sparql_update
  • 列出存储库( mcp_sparql_list_repositories
  • 查询图表列表( mcp_sparql_list_graphs
  • 获取资源信息( mcp_sparql_get_resource_info

与 Ollama 模型相关的功能

  • 运行模型( mcp_ollama_run
  • 检查模型信息( mcp_ollama_show
  • 下载模型( mcp_ollama_pull
  • 获取模型列表( mcp_ollama_list
  • 删除模型( mcp_ollama_rm
  • 聊天完成( mcp_ollama_chat_completion
  • 检查容器状态( mcp_ollama_status

OpenAI相关功能

  • 聊天完成( mcp_openai_chat
  • 创建图像( mcp_openai_image
  • 文本转语音( mcp_openai_tts
  • 语音转文本( mcp_openai_transcribe
  • 生成嵌入( mcp_openai_embedding

Google Gemini 相关功能

  • 生成文本( mcp_gemini_generate_text
  • 聊天完成( mcp_gemini_chat_completion
  • 获取模型列表( mcp_gemini_list_models
  • ~~生成图像( mcp_gemini_generate_images )- 使用 Imagen 模型~~(当前已禁用)
  • ~~生成视频( mcp_gemini_generate_videos ) - 使用 Veo 模型~~(当前已禁用)
  • ~~生成多模式内容( mcp_gemini_generate_multimodal_content )~~(当前已禁用)

注意:由于 API 兼容性问题,Gemini 的图像创建、视频创建和多模式内容创建功能目前已被禁用。

支持的 Gemini 型号

模型转换输入功率输出优化目标
Gemini 2.5 Flash 预览gemini-2.5-flash-preview-04-17音频、图片、视频、文本文本适应性思维,成本效益
Gemini 2.5 Pro 预览版gemini-2.5-pro-preview-03-25音频、图片、视频、文本文本增强思维和推理能力、多模式理解能力、高级编码能力
双子座 2.0 Flash gemini-2.0-flash音频、图片、视频、文本文本、图像(实验性)、音频(即将推出)下一代能力、速度、思维、实时流媒体、多模式创作
Gemini 2.0 Flash-Lite gemini-2.0-flash-lite音频、图片、视频、文本文本经济高效且低延迟
双子座 1.5 闪光灯gemini-1.5-flash音频、图片、视频、文本文本适用于各种任务的快速且多功能的性能
双子座 1.5 Flash-8B gemini-1.5-flash-8b音频、图片、视频、文本文本高容量和低智力任务
双子座 1.5 专业版gemini-1.5-pro音频、图片、视频、文本文本需要更多智能的复杂推理任务
双子座嵌入gemini-embedding-exp文本文本嵌入测量文本字符串的相关性
Imagen 3 imagen-3.0-generate-002文本图像谷歌最先进的图像生成模型
Veo 2 veo-2.0-generate-001文本、图片视频制作高质量的视频
Gemini 2.0 Flash Live gemini-2.0-flash-live-001音频、视频、文本文本、音频低延迟、双向语音和视频交互

HTTP 请求函数

  • 执行 HTTP 请求( mcp_http_request ) - 使用各种 HTTP 方法(如 GET、POST、PUT、DELETE 等)与外部 API 通信。

开始

1. 克隆存储库

git clone https://github.com/bigdata-coss/agent_mcp.git cd agent_mcp

2. 运行 GraphDB Docker 容器

通过从项目根目录运行以下命令来启动 GraphDB 服务器:

docker-compose up -d

GraphDB Web 界面在http://localhost:7200运行。

3. 构建并运行 MCP 服务器

# 의존성 설치 npm install # 프로젝트 빌드 npm run build # 서버 실행 (테스트용, Claude Desktop에서는 필요 없음) node build/index.js

4.导入RDF数据

转到 GraphDB Web 界面( http://localhost:7200 )并执行以下操作:

  1. 创建存储库:
    • “设置”→“存储库”→“创建新存储库”
    • 存储库 ID: schemaorg-current-https (或您想要的任何名称)
    • 存储库标题:“Schema.org”
    • 点击“创建”
  2. 获取示例数据:
    • 选择您创建的存储库
    • “导入” → “RDF” → “上传 RDF 文件”
    • 将示例文件上传到imports目录(例如imports/example.ttl
    • 点击“导入”

注意:该项目在imports目录中包含示例 RDF 文件。

5. 设置 Claude Desktop

要在 Claude Desktop 中使用 Ontology MCP,您需要更新 MCP 设置文件:

  1. 打开 Claude Desktop 设置文件:
    • Windows: %AppData%\Claude\claude_desktop_config.json
    • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
    • Linux: ~/.config/Claude/claude_desktop_config.json
  2. 添加以下设置:
{ "mcpServers": { "a2a-ontology-mcp": { "command": "node", "args": ["E:\\codes\\a2a_mcp\\build"], "env": { "SPARQL_ENDPOINT": "http://localhost:7200", "OPENAI_API_KEY": "your-api-key", "GEMINI_API_KEY" : "your-api-key" }, "disabled": false, "autoApprove": [] } } }

重要提示:将“args”中的路径更改为项目构建目录的实际绝对路径。

  1. 重启Claude桌面

执照

该项目根据 MIT 许可证提供。请参阅LICENSE文件以了解详细信息。

ID: mxvujkgabm