Skip to main content
Glama

Ontology MCP

Ontology MCPは、GraphDBのSPARQLエンドポイントとOllamaモデルをClaudeに関連付けるModel Context Protocol(MCP)サーバーです。このツールを使用すると、Claudeはオントロジーデータを照会および操作し、さまざまなAIモデルを活用できます。

Ontology MCPの概要

主な機能

SPARQL関連機能

  • SPARQLクエリの実行( mcp_sparql_execute_query

  • SPARQLアップデートクエリの実行( mcp_sparql_update

  • リポジトリリストの検索( mcp_sparql_list_repositories

  • グラフリストの照会( mcp_sparql_list_graphs

  • リソース情報の検索( mcp_sparql_get_resource_info

Ollamaモデル関連機能

  • モデルの実行( mcp_ollama_run

  • モデル情報を確認する( mcp_ollama_show

  • モデルのダウンロード( mcp_ollama_pull

  • モデルリストの照会( mcp_ollama_list

  • モデルの削除( mcp_ollama_rm

  • チャット完了( mcp_ollama_chat_completion

  • コンテナの状態を確認する( mcp_ollama_status

OpenAI関連機能

  • チャット完了( mcp_openai_chat

  • 画像の生成( mcp_openai_image

  • テキスト - 音声変換( mcp_openai_tts

  • 音声 - テキスト変換( mcp_openai_transcribe

  • 埋め込み生成( mcp_openai_embedding

Google Gemini 関連機能

  • テキスト生成( mcp_gemini_generate_text

  • チャット完了( mcp_gemini_chat_completion

  • モデルリストの照会( mcp_gemini_list_models

  • ~~イメージ生成 ( mcp_gemini_generate_images ) - Imagen モデルの活用~~ (現在無効)

  • ~~ビデオ生成 ( mcp_gemini_generate_videos ) - Veo モデル活用~~ (現在無効)

  • ~~マルチモーダルコンテンツの生成 ( mcp_gemini_generate_multimodal_content )~~ (現在無効)

:Geminiの画像生成、ビデオ生成、およびマルチモーダルコンテンツ生成機能は、現在API互換性の問題により無効になっています。

サポートするGeminiモデル

モデルの変形

入力

出力

最適化目標

Gemini 2.5 Flash Preview

gemini-2.5-flash-preview-04-17

オーディオ、画像、動画、テキスト

テキスト

適応的思考、コスト効率

Gemini 2.5 Pro プレビュー

gemini-2.5-pro-preview-03-25

オーディオ、画像、動画、テキスト

テキスト

改善された思考と推論、マルチモーダル理解、高度なコーディング

Gemini 2.0 Flash

gemini-2.0-flash

オーディオ、画像、動画、テキスト

テキスト、画像(実験用)、オーディオ(リリース予定)

次世代機能、スピード、思考、リアルタイムストリーミング、マルチモーダル生成

Gemini 2.0 Flash-Lite

gemini-2.0-flash-lite

オーディオ、画像、動画、テキスト

テキスト

コスト効率と低遅延時間

Gemini 1.5 Flash

gemini-1.5-flash

オーディオ、画像、動画、テキスト

テキスト

さまざまなタスクで迅速かつ汎用性の高いパフォーマンス

Gemini 1.5 Flash-8B

gemini-1.5-flash-8b

オーディオ、画像、動画、テキスト

テキスト

大容量および低インテリジェンスタスク

Gemini 1.5 Pro

gemini-1.5-pro

オーディオ、画像、動画、テキスト

テキスト

より多くの知能を必要とする複雑な推論作業

Gemini 挿入

gemini-embedding-exp

テキスト

テキスト埋め込み

テキスト文字列の関連性の測定

Imagen 3

imagen-3.0-generate-002

テキスト

イメージ

Googleの最も高度な画像生成モデル

Veo 2

veo-2.0-generate-001

テキスト、画像

動画

高精細動画を作成

Gemini 2.0 Flash リアルタイム

gemini-2.0-flash-live-001

オーディオ、ビデオ、テキスト

テキスト、オーディオ

遅延時間の短い双方向音声と動画のやり取り

HTTPリクエスト機能

  • HTTPリクエストの実行( mcp_http_request ) - GET、POST、PUT、DELETEなど、さまざまなHTTPメソッドを使用して外部APIと通信する

Related MCP server: terraform-cloud-mcp

始める

1. リポジトリクローン

git clone https://github.com/bigdata-coss/agent_mcp.git cd agent_mcp

2. GraphDB Dockerコンテナの実行

プロジェクトのルートディレクトリで次のコマンドを実行してGraphDBサーバーを起動します。

docker-compose up -d

GraphDB Web インタフェースはhttp://localhost:7200で実行されます。

3. MCP サーバーの構築と実行

# 의존성 설치 npm install # 프로젝트 빌드 npm run build # 서버 실행 (테스트용, Claude Desktop에서는 필요 없음) node build/index.js

4. RDFデータのインポート

GraphDB Webインタフェース( http://localhost:7200 )にアクセスして、次の手順を実行します。

  1. リポジトリの作成:

    • 「Setup」→「Repositories」→「Create new repository」

    • Repository ID: schemaorg-current-https (または希望する名前)

    • Repository title: "Schema.org"

    • 「Create」をクリック

  2. サンプルデータのインポート:

    • 作成したリポジトリを選択

    • 「Import」→「RDF」→「Upload RDF files」

    • importsディレクトリのサンプルファイルのアップロード(例: imports/example.ttl

    • 「インポート」をクリック

: プロジェクトには、 importsディレクトリにサンプル RDF ファイルが含まれています。

5. Claude Desktopの設定

Claude DesktopでOntology MCPを使用するには、MCP設定ファイルを更新する必要があります。

  1. Claude Desktop設定ファイルを開く:

    • Windows: %AppData%\Claude\claude_desktop_config.json

    • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json

    • Linux: ~/.config/Claude/claude_desktop_config.json

  2. 次の設定を追加:

{ "mcpServers": { "a2a-ontology-mcp": { "command": "node", "args": ["E:\\codes\\a2a_mcp\\build"], "env": { "SPARQL_ENDPOINT": "http://localhost:7200", "OPENAI_API_KEY": "your-api-key", "GEMINI_API_KEY" : "your-api-key" }, "disabled": false, "autoApprove": [] } } }

重要: `args'のパスをプロジェクトビルドディレクトリの実際の絶対パスに変更してください。

  1. Claude Desktopの再起動

ライセンス

このプロジェクトはMITライセンスの下で提供されます。詳細については、 LICENSEファイルを参照してください。

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/bigdata-coss/agent_mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server