hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Integrations
Uses Docker to run GraphDB and provide SPARQL endpoint functionality
Provides access to Gemini models for text generation, chat completion, and model listing with support for various Gemini model variants
Enables running, managing, and interacting with Ollama models including execution, information retrieval, downloading, listing, deletion, and chat completion
Ontology MCP
Ontology MCPは、GraphDBのSPARQLエンドポイントとOllamaモデルをClaudeに関連付けるModel Context Protocol(MCP)サーバーです。このツールを使用すると、Claudeはオントロジーデータを照会および操作し、さまざまなAIモデルを活用できます。
主な機能
SPARQL関連機能
- SPARQLクエリの実行(
mcp_sparql_execute_query
) - SPARQLアップデートクエリの実行(
mcp_sparql_update
) - リポジトリリストの検索(
mcp_sparql_list_repositories
) - グラフリストの照会(
mcp_sparql_list_graphs
) - リソース情報の検索(
mcp_sparql_get_resource_info
)
Ollamaモデル関連機能
- モデルの実行(
mcp_ollama_run
) - モデル情報を確認する(
mcp_ollama_show
) - モデルのダウンロード(
mcp_ollama_pull
) - モデルリストの照会(
mcp_ollama_list
) - モデルの削除(
mcp_ollama_rm
) - チャット完了(
mcp_ollama_chat_completion
) - コンテナの状態を確認する(
mcp_ollama_status
)
OpenAI関連機能
- チャット完了(
mcp_openai_chat
) - 画像の生成(
mcp_openai_image
) - テキスト - 音声変換(
mcp_openai_tts
) - 音声 - テキスト変換(
mcp_openai_transcribe
) - 埋め込み生成(
mcp_openai_embedding
)
Google Gemini 関連機能
- テキスト生成(
mcp_gemini_generate_text
) - チャット完了(
mcp_gemini_chat_completion
) - モデルリストの照会(
mcp_gemini_list_models
) - ~~イメージ生成 (
mcp_gemini_generate_images
) - Imagen モデルの活用~~ (現在無効) - ~~ビデオ生成 (
mcp_gemini_generate_videos
) - Veo モデル活用~~ (現在無効) - ~~マルチモーダルコンテンツの生成 (
mcp_gemini_generate_multimodal_content
)~~ (現在無効)
注:Geminiの画像生成、ビデオ生成、およびマルチモーダルコンテンツ生成機能は、現在API互換性の問題により無効になっています。
サポートするGeminiモデル
モデルの変形 | 入力 | 出力 | 最適化目標 |
---|---|---|---|
Gemini 2.5 Flash Preview gemini-2.5-flash-preview-04-17 | オーディオ、画像、動画、テキスト | テキスト | 適応的思考、コスト効率 |
Gemini 2.5 Pro プレビューgemini-2.5-pro-preview-03-25 | オーディオ、画像、動画、テキスト | テキスト | 改善された思考と推論、マルチモーダル理解、高度なコーディング |
Gemini 2.0 Flash gemini-2.0-flash | オーディオ、画像、動画、テキスト | テキスト、画像(実験用)、オーディオ(リリース予定) | 次世代機能、スピード、思考、リアルタイムストリーミング、マルチモーダル生成 |
Gemini 2.0 Flash-Lite gemini-2.0-flash-lite | オーディオ、画像、動画、テキスト | テキスト | コスト効率と低遅延時間 |
Gemini 1.5 Flash gemini-1.5-flash | オーディオ、画像、動画、テキスト | テキスト | さまざまなタスクで迅速かつ汎用性の高いパフォーマンス |
Gemini 1.5 Flash-8B gemini-1.5-flash-8b | オーディオ、画像、動画、テキスト | テキスト | 大容量および低インテリジェンスタスク |
Gemini 1.5 Pro gemini-1.5-pro | オーディオ、画像、動画、テキスト | テキスト | より多くの知能を必要とする複雑な推論作業 |
Gemini 挿入gemini-embedding-exp | テキスト | テキスト埋め込み | テキスト文字列の関連性の測定 |
Imagen 3 imagen-3.0-generate-002 | テキスト | イメージ | Googleの最も高度な画像生成モデル |
Veo 2 veo-2.0-generate-001 | テキスト、画像 | 動画 | 高精細動画を作成 |
Gemini 2.0 Flash リアルタイムgemini-2.0-flash-live-001 | オーディオ、ビデオ、テキスト | テキスト、オーディオ | 遅延時間の短い双方向音声と動画のやり取り |
HTTPリクエスト機能
- HTTPリクエストの実行(
mcp_http_request
) - GET、POST、PUT、DELETEなど、さまざまなHTTPメソッドを使用して外部APIと通信する
始める
1. リポジトリクローン
2. GraphDB Dockerコンテナの実行
プロジェクトのルートディレクトリで次のコマンドを実行してGraphDBサーバーを起動します。
GraphDB Web インタフェースはhttp://localhost:7200で実行されます。
3. MCP サーバーの構築と実行
4. RDFデータのインポート
GraphDB Webインタフェース( http://localhost:7200 )にアクセスして、次の手順を実行します。
- リポジトリの作成:
- 「Setup」→「Repositories」→「Create new repository」
- Repository ID:
schemaorg-current-https
(または希望する名前) - Repository title: "Schema.org"
- 「Create」をクリック
- サンプルデータのインポート:
- 作成したリポジトリを選択
- 「Import」→「RDF」→「Upload RDF files」
imports
ディレクトリのサンプルファイルのアップロード(例:imports/example.ttl
)- 「インポート」をクリック
注: プロジェクトには、
imports
ディレクトリにサンプル RDF ファイルが含まれています。
5. Claude Desktopの設定
Claude DesktopでOntology MCPを使用するには、MCP設定ファイルを更新する必要があります。
- Claude Desktop設定ファイルを開く:
- Windows:
%AppData%\Claude\claude_desktop_config.json
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- Linux:
~/.config/Claude/claude_desktop_config.json
- Windows:
- 次の設定を追加:
重要: `args'のパスをプロジェクトビルドディレクトリの実際の絶対パスに変更してください。
- Claude Desktopの再起動
ライセンス
このプロジェクトはMITライセンスの下で提供されます。詳細については、 LICENSEファイルを参照してください。
You must be authenticated.
Tools
A Model Context Protocol (MCP) server that connects GraphDB's SPARQL endpoints and Ollama models to Claude, enabling Claude to query and manipulate ontology data while leveraging various AI models.