Skip to main content
Glama

本体 MCP

Ontology MCP 是一个模型上下文协议 (MCP) 服务器,它将 GraphDB 的 SPARQL 端点和 Ollama 模型连接到 Claude。该工具允许 Claude 查询和操作本体数据并利用各种 AI 模型。

本体 MCP 概述

主要特点

SPARQL相关函数

  • 执行 SPARQL 查询( mcp_sparql_execute_query

  • 执行 SPARQL 更新查询( mcp_sparql_update

  • 列出存储库( mcp_sparql_list_repositories

  • 查询图表列表( mcp_sparql_list_graphs

  • 获取资源信息( mcp_sparql_get_resource_info

与 Ollama 模型相关的功能

  • 运行模型( mcp_ollama_run

  • 检查模型信息( mcp_ollama_show

  • 下载模型( mcp_ollama_pull

  • 获取模型列表( mcp_ollama_list

  • 删除模型( mcp_ollama_rm

  • 聊天完成( mcp_ollama_chat_completion

  • 检查容器状态( mcp_ollama_status

OpenAI相关功能

  • 聊天完成( mcp_openai_chat

  • 创建图像( mcp_openai_image

  • 文本转语音( mcp_openai_tts

  • 语音转文本( mcp_openai_transcribe

  • 生成嵌入( mcp_openai_embedding

Google Gemini 相关功能

  • 生成文本( mcp_gemini_generate_text

  • 聊天完成( mcp_gemini_chat_completion

  • 获取模型列表( mcp_gemini_list_models

  • ~~生成图像( mcp_gemini_generate_images )- 使用 Imagen 模型~~(当前已禁用)

  • ~~生成视频( mcp_gemini_generate_videos ) - 使用 Veo 模型~~(当前已禁用)

  • ~~生成多模式内容( mcp_gemini_generate_multimodal_content )~~(当前已禁用)

注意:由于 API 兼容性问题,Gemini 的图像创建、视频创建和多模式内容创建功能目前已被禁用。

支持的 Gemini 型号

模型转换

输入

功率输出

优化目标

Gemini 2.5 Flash 预览

gemini-2.5-flash-preview-04-17

音频、图片、视频、文本

文本

适应性思维,成本效益

Gemini 2.5 Pro 预览版

gemini-2.5-pro-preview-03-25

音频、图片、视频、文本

文本

增强思维和推理能力、多模式理解能力、高级编码能力

双子座 2.0 Flash

gemini-2.0-flash

音频、图片、视频、文本

文本、图像(实验性)、音频(即将推出)

下一代能力、速度、思维、实时流媒体、多模式创作

Gemini 2.0 Flash-Lite

gemini-2.0-flash-lite

音频、图片、视频、文本

文本

经济高效且低延迟

双子座 1.5 闪光灯

gemini-1.5-flash

音频、图片、视频、文本

文本

适用于各种任务的快速且多功能的性能

双子座 1.5 Flash-8B

gemini-1.5-flash-8b

音频、图片、视频、文本

文本

高容量和低智力任务

双子座 1.5 专业版

gemini-1.5-pro

音频、图片、视频、文本

文本

需要更多智能的复杂推理任务

双子座嵌入

gemini-embedding-exp

文本

文本嵌入

测量文本字符串的相关性

Imagen 3

imagen-3.0-generate-002

文本

图像

谷歌最先进的图像生成模型

Veo 2

veo-2.0-generate-001

文本、图片

视频

制作高质量的视频

Gemini 2.0 Flash Live

gemini-2.0-flash-live-001

音频、视频、文本

文本、音频

低延迟、双向语音和视频交互

HTTP 请求函数

  • 执行 HTTP 请求( mcp_http_request ) - 使用各种 HTTP 方法(如 GET、POST、PUT、DELETE 等)与外部 API 通信。

Related MCP server: terraform-cloud-mcp

开始

1. 克隆存储库

git clone https://github.com/bigdata-coss/agent_mcp.git cd agent_mcp

2. 运行 GraphDB Docker 容器

通过从项目根目录运行以下命令来启动 GraphDB 服务器:

docker-compose up -d

GraphDB Web 界面在http://localhost:7200运行。

3. 构建并运行 MCP 服务器

# 의존성 설치 npm install # 프로젝트 빌드 npm run build # 서버 실행 (테스트용, Claude Desktop에서는 필요 없음) node build/index.js

4.导入RDF数据

转到 GraphDB Web 界面( http://localhost:7200 )并执行以下操作:

  1. 创建存储库:

    • “设置”→“存储库”→“创建新存储库”

    • 存储库 ID: schemaorg-current-https (或您想要的任何名称)

    • 存储库标题:“Schema.org”

    • 点击“创建”

  2. 获取示例数据:

    • 选择您创建的存储库

    • “导入” → “RDF” → “上传 RDF 文件”

    • 将示例文件上传到imports目录(例如imports/example.ttl

    • 点击“导入”

注意:该项目在imports目录中包含示例 RDF 文件。

5. 设置 Claude Desktop

要在 Claude Desktop 中使用 Ontology MCP,您需要更新 MCP 设置文件:

  1. 打开 Claude Desktop 设置文件:

    • Windows: %AppData%\Claude\claude_desktop_config.json

    • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json

    • Linux: ~/.config/Claude/claude_desktop_config.json

  2. 添加以下设置:

{ "mcpServers": { "a2a-ontology-mcp": { "command": "node", "args": ["E:\\codes\\a2a_mcp\\build"], "env": { "SPARQL_ENDPOINT": "http://localhost:7200", "OPENAI_API_KEY": "your-api-key", "GEMINI_API_KEY" : "your-api-key" }, "disabled": false, "autoApprove": [] } } }

重要提示:将“args”中的路径更改为项目构建目录的实际绝对路径。

  1. 重启Claude桌面

执照

该项目根据 MIT 许可证提供。请参阅LICENSE文件以了解详细信息。

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/bigdata-coss/agent_mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server