Skip to main content
Glama

Ontology MCP

by bigdata-coss

本体 MCP

Ontology MCP 是一个模型上下文协议 (MCP) 服务器,它将 GraphDB 的 SPARQL 端点和 Ollama 模型连接到 Claude。该工具允许 Claude 查询和操作本体数据并利用各种 AI 模型。

本体 MCP 概述

主要特点

SPARQL相关函数

  • 执行 SPARQL 查询( mcp_sparql_execute_query
  • 执行 SPARQL 更新查询( mcp_sparql_update
  • 列出存储库( mcp_sparql_list_repositories
  • 查询图表列表( mcp_sparql_list_graphs
  • 获取资源信息( mcp_sparql_get_resource_info

与 Ollama 模型相关的功能

  • 运行模型( mcp_ollama_run
  • 检查模型信息( mcp_ollama_show
  • 下载模型( mcp_ollama_pull
  • 获取模型列表( mcp_ollama_list
  • 删除模型( mcp_ollama_rm
  • 聊天完成( mcp_ollama_chat_completion
  • 检查容器状态( mcp_ollama_status

OpenAI相关功能

  • 聊天完成( mcp_openai_chat
  • 创建图像( mcp_openai_image
  • 文本转语音( mcp_openai_tts
  • 语音转文本( mcp_openai_transcribe
  • 生成嵌入( mcp_openai_embedding

Google Gemini 相关功能

  • 生成文本( mcp_gemini_generate_text
  • 聊天完成( mcp_gemini_chat_completion
  • 获取模型列表( mcp_gemini_list_models
  • ~~生成图像( mcp_gemini_generate_images )- 使用 Imagen 模型~~(当前已禁用)
  • ~~生成视频( mcp_gemini_generate_videos ) - 使用 Veo 模型~~(当前已禁用)
  • ~~生成多模式内容( mcp_gemini_generate_multimodal_content )~~(当前已禁用)

注意:由于 API 兼容性问题,Gemini 的图像创建、视频创建和多模式内容创建功能目前已被禁用。

支持的 Gemini 型号
模型转换输入功率输出优化目标
Gemini 2.5 Flash 预览gemini-2.5-flash-preview-04-17音频、图片、视频、文本文本适应性思维,成本效益
Gemini 2.5 Pro 预览版gemini-2.5-pro-preview-03-25音频、图片、视频、文本文本增强思维和推理能力、多模式理解能力、高级编码能力
双子座 2.0 Flash gemini-2.0-flash音频、图片、视频、文本文本、图像(实验性)、音频(即将推出)下一代能力、速度、思维、实时流媒体、多模式创作
Gemini 2.0 Flash-Lite gemini-2.0-flash-lite音频、图片、视频、文本文本经济高效且低延迟
双子座 1.5 闪光灯gemini-1.5-flash音频、图片、视频、文本文本适用于各种任务的快速且多功能的性能
双子座 1.5 Flash-8B gemini-1.5-flash-8b音频、图片、视频、文本文本高容量和低智力任务
双子座 1.5 专业版gemini-1.5-pro音频、图片、视频、文本文本需要更多智能的复杂推理任务
双子座嵌入gemini-embedding-exp文本文本嵌入测量文本字符串的相关性
Imagen 3 imagen-3.0-generate-002文本图像谷歌最先进的图像生成模型
Veo 2 veo-2.0-generate-001文本、图片视频制作高质量的视频
Gemini 2.0 Flash Live gemini-2.0-flash-live-001音频、视频、文本文本、音频低延迟、双向语音和视频交互

HTTP 请求函数

  • 执行 HTTP 请求( mcp_http_request ) - 使用各种 HTTP 方法(如 GET、POST、PUT、DELETE 等)与外部 API 通信。

开始

1. 克隆存储库

git clone https://github.com/bigdata-coss/agent_mcp.git cd agent_mcp

2. 运行 GraphDB Docker 容器

通过从项目根目录运行以下命令来启动 GraphDB 服务器:

docker-compose up -d

GraphDB Web 界面在http://localhost:7200运行。

3. 构建并运行 MCP 服务器

# 의존성 설치 npm install # 프로젝트 빌드 npm run build # 서버 실행 (테스트용, Claude Desktop에서는 필요 없음) node build/index.js

4.导入RDF数据

转到 GraphDB Web 界面( http://localhost:7200 )并执行以下操作:

  1. 创建存储库:
    • “设置”→“存储库”→“创建新存储库”
    • 存储库 ID: schemaorg-current-https (或您想要的任何名称)
    • 存储库标题:“Schema.org”
    • 点击“创建”
  2. 获取示例数据:
    • 选择您创建的存储库
    • “导入” → “RDF” → “上传 RDF 文件”
    • 将示例文件上传到imports目录(例如imports/example.ttl
    • 点击“导入”

注意:该项目在imports目录中包含示例 RDF 文件。

5. 设置 Claude Desktop

要在 Claude Desktop 中使用 Ontology MCP,您需要更新 MCP 设置文件:

  1. 打开 Claude Desktop 设置文件:
    • Windows: %AppData%\Claude\claude_desktop_config.json
    • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
    • Linux: ~/.config/Claude/claude_desktop_config.json
  2. 添加以下设置:
{ "mcpServers": { "a2a-ontology-mcp": { "command": "node", "args": ["E:\\codes\\a2a_mcp\\build"], "env": { "SPARQL_ENDPOINT": "http://localhost:7200", "OPENAI_API_KEY": "your-api-key", "GEMINI_API_KEY" : "your-api-key" }, "disabled": false, "autoApprove": [] } } }

重要提示:将“args”中的路径更改为项目构建目录的实际绝对路径。

  1. 重启Claude桌面

执照

该项目根据 MIT 许可证提供。请参阅LICENSE文件以了解详细信息。

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

模型上下文协议 (MCP) 服务器将 GraphDB 的 SPARQL 端点和 Ollama 模型连接到 Claude,使 Claude 能够在利用各种 AI 模型的同时查询和操作本体数据。

  1. 主要特点
    1. SPARQL相关函数
    2. 与 Ollama 模型相关的功能
    3. OpenAI相关功能
    4. Google Gemini 相关功能
    5. HTTP 请求函数
  2. 开始
    1. 克隆存储库
    2. 运行 GraphDB Docker 容器
    3. 构建并运行 MCP 服务器
    4. 4.导入RDF数据
    5. 设置 Claude Desktop
  3. 执照

    Related MCP Servers

    • -
      security
      A
      license
      -
      quality
      A MCP server that exposes GraphQL schema information to LLMs like Claude. This server allows an LLM to explore and understand large GraphQL schemas through a set of specialized tools, without needing to load the whole schema into the context
      Last updated -
      58
      26
      JavaScript
      MIT License
      • Apple
      • Linux
    • -
      security
      A
      license
      -
      quality
      A Model Context Protocol server that enables LLMs to interact with GraphQL APIs by providing schema introspection and query execution capabilities.
      Last updated -
      733
      1
      MIT License
      • Apple
    • A
      security
      A
      license
      A
      quality
      A Model Context Protocol server that provides read-only access to Ontotext GraphDB, enabling LLMs to explore RDF graphs and execute SPARQL queries.
      Last updated -
      2
      6
      JavaScript
      GPL 3.0
    • -
      security
      A
      license
      -
      quality
      Allows AI models to query and interact with FalkorDB graph databases through the Model Context Protocol (MCP) specification.
      Last updated -
      4
      TypeScript
      MIT License

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/bigdata-coss/agent_mcp'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server