Ontology MCP
Ontology MCPは、GraphDBのSPARQLエンドポイントとOllamaモデルをClaudeに関連付けるModel Context Protocol(MCP)サーバーです。このツールを使用すると、Claudeはオントロジーデータを照会および操作し、さまざまなAIモデルを活用できます。

主な機能
SPARQL関連機能
SPARQLクエリの実行(
mcp_sparql_execute_query)SPARQLアップデートクエリの実行(
mcp_sparql_update)リポジトリリストの検索(
mcp_sparql_list_repositories)グラフリストの照会(
mcp_sparql_list_graphs)リソース情報の検索(
mcp_sparql_get_resource_info)
Ollamaモデル関連機能
モデルの実行(
mcp_ollama_run)モデル情報を確認する(
mcp_ollama_show)モデルのダウンロード(
mcp_ollama_pull)モデルリストの照会(
mcp_ollama_list)モデルの削除(
mcp_ollama_rm)チャット完了(
mcp_ollama_chat_completion)コンテナの状態を確認する(
mcp_ollama_status)
OpenAI関連機能
チャット完了(
mcp_openai_chat)画像の生成(
mcp_openai_image)テキスト - 音声変換(
mcp_openai_tts)音声 - テキスト変換(
mcp_openai_transcribe)埋め込み生成(
mcp_openai_embedding)
Google Gemini 関連機能
テキスト生成(
mcp_gemini_generate_text)チャット完了(
mcp_gemini_chat_completion)モデルリストの照会(
mcp_gemini_list_models)~~イメージ生成 (
mcp_gemini_generate_images) - Imagen モデルの活用~~ (現在無効)~~ビデオ生成 (
mcp_gemini_generate_videos) - Veo モデル活用~~ (現在無効)~~マルチモーダルコンテンツの生成 (
mcp_gemini_generate_multimodal_content)~~ (現在無効)
注:Geminiの画像生成、ビデオ生成、およびマルチモーダルコンテンツ生成機能は、現在API互換性の問題により無効になっています。
サポートするGeminiモデル
モデルの変形 | 入力 | 出力 | 最適化目標 |
Gemini 2.5 Flash Preview
| オーディオ、画像、動画、テキスト | テキスト | 適応的思考、コスト効率 |
Gemini 2.5 Pro プレビュー
| オーディオ、画像、動画、テキスト | テキスト | 改善された思考と推論、マルチモーダル理解、高度なコーディング |
Gemini 2.0 Flash
| オーディオ、画像、動画、テキスト | テキスト、画像(実験用)、オーディオ(リリース予定) | 次世代機能、スピード、思考、リアルタイムストリーミング、マルチモーダル生成 |
Gemini 2.0 Flash-Lite
| オーディオ、画像、動画、テキスト | テキスト | コスト効率と低遅延時間 |
Gemini 1.5 Flash
| オーディオ、画像、動画、テキスト | テキスト | さまざまなタスクで迅速かつ汎用性の高いパフォーマンス |
Gemini 1.5 Flash-8B
| オーディオ、画像、動画、テキスト | テキスト | 大容量および低インテリジェンスタスク |
Gemini 1.5 Pro
| オーディオ、画像、動画、テキスト | テキスト | より多くの知能を必要とする複雑な推論作業 |
Gemini 挿入
| テキスト | テキスト埋め込み | テキスト文字列の関連性の測定 |
Imagen 3
| テキスト | イメージ | Googleの最も高度な画像生成モデル |
Veo 2
| テキスト、画像 | 動画 | 高精細動画を作成 |
Gemini 2.0 Flash リアルタイム
| オーディオ、ビデオ、テキスト | テキスト、オーディオ | 遅延時間の短い双方向音声と動画のやり取り |
HTTPリクエスト機能
HTTPリクエストの実行(
mcp_http_request) - GET、POST、PUT、DELETEなど、さまざまなHTTPメソッドを使用して外部APIと通信する
Related MCP server: terraform-cloud-mcp
始める
1. リポジトリクローン
2. GraphDB Dockerコンテナの実行
プロジェクトのルートディレクトリで次のコマンドを実行してGraphDBサーバーを起動します。
GraphDB Web インタフェースはhttp://localhost:7200で実行されます。
3. MCP サーバーの構築と実行
4. RDFデータのインポート
GraphDB Webインタフェース( http://localhost:7200 )にアクセスして、次の手順を実行します。
リポジトリの作成:
「Setup」→「Repositories」→「Create new repository」
Repository ID:
schemaorg-current-https(または希望する名前)Repository title: "Schema.org"
「Create」をクリック
サンプルデータのインポート:
作成したリポジトリを選択
「Import」→「RDF」→「Upload RDF files」
importsディレクトリのサンプルファイルのアップロード(例:imports/example.ttl)「インポート」をクリック
注: プロジェクトには、
importsディレクトリにサンプル RDF ファイルが含まれています。
5. Claude Desktopの設定
Claude DesktopでOntology MCPを使用するには、MCP設定ファイルを更新する必要があります。
Claude Desktop設定ファイルを開く:
Windows:
%AppData%\Claude\claude_desktop_config.jsonmacOS:
~/Library/Application Support/Claude/claude_desktop_config.jsonLinux:
~/.config/Claude/claude_desktop_config.json
次の設定を追加:
重要: `args'のパスをプロジェクトビルドディレクトリの実際の絶対パスに変更してください。
Claude Desktopの再起動
ライセンス
このプロジェクトはMITライセンスの下で提供されます。詳細については、 LICENSEファイルを参照してください。