Skip to main content
Glama

Ontology MCP

by bigdata-coss

Ontology MCP

Ontology MCPは、GraphDBのSPARQLエンドポイントとOllamaモデルをClaudeに関連付けるModel Context Protocol(MCP)サーバーです。このツールを使用すると、Claudeはオントロジーデータを照会および操作し、さまざまなAIモデルを活用できます。

Ontology MCPの概要

主な機能

SPARQL関連機能

  • SPARQLクエリの実行( mcp_sparql_execute_query
  • SPARQLアップデートクエリの実行( mcp_sparql_update
  • リポジトリリストの検索( mcp_sparql_list_repositories
  • グラフリストの照会( mcp_sparql_list_graphs
  • リソース情報の検索( mcp_sparql_get_resource_info

Ollamaモデル関連機能

  • モデルの実行( mcp_ollama_run
  • モデル情報を確認する( mcp_ollama_show
  • モデルのダウンロード( mcp_ollama_pull
  • モデルリストの照会( mcp_ollama_list
  • モデルの削除( mcp_ollama_rm
  • チャット完了( mcp_ollama_chat_completion
  • コンテナの状態を確認する( mcp_ollama_status

OpenAI関連機能

  • チャット完了( mcp_openai_chat
  • 画像の生成( mcp_openai_image
  • テキスト - 音声変換( mcp_openai_tts
  • 音声 - テキスト変換( mcp_openai_transcribe
  • 埋め込み生成( mcp_openai_embedding

Google Gemini 関連機能

  • テキスト生成( mcp_gemini_generate_text
  • チャット完了( mcp_gemini_chat_completion
  • モデルリストの照会( mcp_gemini_list_models
  • ~~イメージ生成 ( mcp_gemini_generate_images ) - Imagen モデルの活用~~ (現在無効)
  • ~~ビデオ生成 ( mcp_gemini_generate_videos ) - Veo モデル活用~~ (現在無効)
  • ~~マルチモーダルコンテンツの生成 ( mcp_gemini_generate_multimodal_content )~~ (現在無効)

:Geminiの画像生成、ビデオ生成、およびマルチモーダルコンテンツ生成機能は、現在API互換性の問題により無効になっています。

サポートするGeminiモデル
モデルの変形入力出力最適化目標
Gemini 2.5 Flash Preview gemini-2.5-flash-preview-04-17オーディオ、画像、動画、テキストテキスト適応的思考、コスト効率
Gemini 2.5 Pro プレビューgemini-2.5-pro-preview-03-25オーディオ、画像、動画、テキストテキスト改善された思考と推論、マルチモーダル理解、高度なコーディング
Gemini 2.0 Flash gemini-2.0-flashオーディオ、画像、動画、テキストテキスト、画像(実験用)、オーディオ(リリース予定)次世代機能、スピード、思考、リアルタイムストリーミング、マルチモーダル生成
Gemini 2.0 Flash-Lite gemini-2.0-flash-liteオーディオ、画像、動画、テキストテキストコスト効率と低遅延時間
Gemini 1.5 Flash gemini-1.5-flashオーディオ、画像、動画、テキストテキストさまざまなタスクで迅速かつ汎用性の高いパフォーマンス
Gemini 1.5 Flash-8B gemini-1.5-flash-8bオーディオ、画像、動画、テキストテキスト大容量および低インテリジェンスタスク
Gemini 1.5 Pro gemini-1.5-proオーディオ、画像、動画、テキストテキストより多くの知能を必要とする複雑な推論作業
Gemini 挿入gemini-embedding-expテキストテキスト埋め込みテキスト文字列の関連性の測定
Imagen 3 imagen-3.0-generate-002テキストイメージGoogleの最も高度な画像生成モデル
Veo 2 veo-2.0-generate-001テキスト、画像動画高精細動画を作成
Gemini 2.0 Flash リアルタイムgemini-2.0-flash-live-001オーディオ、ビデオ、テキストテキスト、オーディオ遅延時間の短い双方向音声と動画のやり取り

HTTPリクエスト機能

  • HTTPリクエストの実行( mcp_http_request ) - GET、POST、PUT、DELETEなど、さまざまなHTTPメソッドを使用して外部APIと通信する

始める

1. リポジトリクローン

git clone https://github.com/bigdata-coss/agent_mcp.git cd agent_mcp

2. GraphDB Dockerコンテナの実行

プロジェクトのルートディレクトリで次のコマンドを実行してGraphDBサーバーを起動します。

docker-compose up -d

GraphDB Web インタフェースはhttp://localhost:7200で実行されます。

3. MCP サーバーの構築と実行

# 의존성 설치 npm install # 프로젝트 빌드 npm run build # 서버 실행 (테스트용, Claude Desktop에서는 필요 없음) node build/index.js

4. RDFデータのインポート

GraphDB Webインタフェース( http://localhost:7200 )にアクセスして、次の手順を実行します。

  1. リポジトリの作成:
    • 「Setup」→「Repositories」→「Create new repository」
    • Repository ID: schemaorg-current-https (または希望する名前)
    • Repository title: "Schema.org"
    • 「Create」をクリック
  2. サンプルデータのインポート:
    • 作成したリポジトリを選択
    • 「Import」→「RDF」→「Upload RDF files」
    • importsディレクトリのサンプルファイルのアップロード(例: imports/example.ttl
    • 「インポート」をクリック

: プロジェクトには、 importsディレクトリにサンプル RDF ファイルが含まれています。

5. Claude Desktopの設定

Claude DesktopでOntology MCPを使用するには、MCP設定ファイルを更新する必要があります。

  1. Claude Desktop設定ファイルを開く:
    • Windows: %AppData%\Claude\claude_desktop_config.json
    • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
    • Linux: ~/.config/Claude/claude_desktop_config.json
  2. 次の設定を追加:
{ "mcpServers": { "a2a-ontology-mcp": { "command": "node", "args": ["E:\\codes\\a2a_mcp\\build"], "env": { "SPARQL_ENDPOINT": "http://localhost:7200", "OPENAI_API_KEY": "your-api-key", "GEMINI_API_KEY" : "your-api-key" }, "disabled": false, "autoApprove": [] } } }

重要`args'のパスをプロジェクトビルドディレクトリの実際の絶対パスに変更してください。

  1. Claude Desktopの再起動

ライセンス

このプロジェクトはMITライセンスの下で提供されます。詳細については、 LICENSEファイルを参照してください。

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

A Model Context Protocol (MCP) server that connects GraphDB's SPARQL endpoints and Ollama models to Claude, enabling Claude to query and manipulate ontology data while leveraging various AI models.

  1. 主な機能
    1. SPARQL関連機能
    2. Ollamaモデル関連機能
    3. OpenAI関連機能
    4. Google Gemini 関連機能
    5. HTTPリクエスト機能
  2. 始める
    1. リポジトリクローン
    2. GraphDB Dockerコンテナの実行
    3. MCP サーバーの構築と実行
    4. RDFデータのインポート
    5. Claude Desktopの設定
  3. ライセンス

    Related MCP Servers

    • -
      security
      A
      license
      -
      quality
      A MCP server that exposes GraphQL schema information to LLMs like Claude. This server allows an LLM to explore and understand large GraphQL schemas through a set of specialized tools, without needing to load the whole schema into the context
      Last updated -
      58
      26
      JavaScript
      MIT License
      • Apple
      • Linux
    • -
      security
      A
      license
      -
      quality
      A Model Context Protocol server that enables LLMs to interact with GraphQL APIs by providing schema introspection and query execution capabilities.
      Last updated -
      733
      1
      MIT License
      • Apple
    • A
      security
      A
      license
      A
      quality
      A Model Context Protocol server that provides read-only access to Ontotext GraphDB, enabling LLMs to explore RDF graphs and execute SPARQL queries.
      Last updated -
      2
      6
      JavaScript
      GPL 3.0
    • -
      security
      A
      license
      -
      quality
      Allows AI models to query and interact with FalkorDB graph databases through the Model Context Protocol (MCP) specification.
      Last updated -
      4
      TypeScript
      MIT License

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/bigdata-coss/agent_mcp'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server