local-only server
The server can only run on the client’s local machine because it depends on local resources.
Integrations
Enables control of Blender using natural language prompts, allowing for 3D modeling tasks such as creating and modifying objects, applying materials, and rendering images through a Blender add-on that handles communication with the server.
Uses locally running Ollama models to process natural language commands, with the ability to switch between different models like llama3.2 or Gemma3, and query available models from the Ollama server.
ブレンダーオープンMCP
blender-open-mcp
Model Context Protocol (MCP) を用いて Blender とローカル AI モデル ( Ollama経由) を統合するオープンソース プロジェクトです。これにより、自然言語プロンプトで Blender を操作し、AI の力を活用して 3D モデリング作業を支援することができます。
特徴
- **自然言語で Blender を制御する:**ローカルで実行されている Ollama モデルにプロンプトを送信して、Blender でアクションを実行します。
- MCP 統合: AI モデルと Blender 間の構造化された通信にモデル コンテキスト プロトコルを使用します。
- Ollama サポート: Ollama と連携してローカル モデルの管理を容易にするように設計されています。
- **Blender アドオン:**ユーザー インターフェイスを提供し、サーバーとの通信を処理する Blender アドオンが含まれています。
- PolyHaven 統合 (オプション): AI プロンプトを介して、 PolyHavenから Blender 内で直接アセット (HDRI、テクスチャ、モデル) をダウンロードして使用します。
- 基本的な3D操作:
- シーンとオブジェクトの情報を取得する
- プリミティブを作成する
- オブジェクトの変更と削除
- 材料を適用する
- **レンダリング サポート:**ツールを使用して画像をレンダリングし、出力に基づいて情報を取得します。
インストール
前提条件
- Blender: Blender 3.0以降。blender.orgからダウンロードしてください。
- Ollama: OS 固有の指示に従って、 ollama.comからインストールします。
- Python: Python 3.10 以降。
- uv:
pip install uv
を使用してインストールします。 - **Git:**リポジトリのクローンを作成するために必要です。
インストール手順
- リポジトリをクローンします。Copy
- 仮想環境を作成してアクティブ化する(推奨):Copy
- 依存関係をインストールします:Copy
- Blenderアドオンをインストールします。
- Blender を開きます。
Edit -> Preferences -> Add-ons
に移動します。Install...
をクリックします。blender-open-mcp
ディレクトリからaddon.py
ファイルを選択します。- 「Blender MCP」アドオンを有効にします。
- Ollama モデルをダウンロードします (まだインストールされていない場合)。*( **Copy
Gemma3
*などの他のモデルも使用可能です。)
設定
- Ollama サーバーを起動します。Ollamaがバックグラウンドで実行されていることを確認します。
- MCP サーバーを起動します。または、CopyデフォルトではCopy
http://0.0.0.0:8000
をリッスンしますが、設定を変更できます。Copy - Blender アドオン サーバーを起動します。
- Blender と 3D ビューポートを開きます。
- サイドバーを開くには
N
を押します。 - 「Blender MCP」パネルを見つけます。
- 「MCP サーバーを起動」をクリックします。
使用法
mcp
コマンドライン ツールを使用してblender-open-mcp
を操作します。
コマンド例
- 基本プロンプト:Copy
- シーン情報を取得:Copy
- キューブを作成する:Copy
- イメージをレンダリングする:Copy
- PolyHaven の使用 (有効な場合):Copy
利用可能なツール
ツール名 | 説明 | パラメータ |
---|---|---|
get_scene_info | シーンの詳細を取得します。 | なし |
get_object_info | オブジェクトに関する情報を取得します。 | object_name (文字列) |
create_object | 3D オブジェクトを作成します。 | type 、 name 、 location 、 rotation 、 scale |
modify_object | オブジェクトのプロパティを変更します。 | name 、 location 、 rotation 、 scale 、 visible |
delete_object | オブジェクトを削除します。 | name (文字列) |
set_material | オブジェクトにマテリアルを割り当てます。 | object_name 、 material_name 、 color |
render_image | 画像をレンダリングします。 | file_path (文字列) |
execute_blender_code | Blender で Python コードを実行します。 | code (文字列) |
get_polyhaven_categories | PolyHaven 資産カテゴリを一覧表示します。 | asset_type (文字列) |
search_polyhaven_assets | PolyHaven アセットを検索します。 | asset_type 、 categories |
download_polyhaven_asset | PolyHaven アセットをダウンロードします。 | asset_id 、 asset_type 、 resolution 、 file_format |
set_texture | ダウンロードしたテクスチャを適用します。 | object_name 、 texture_id |
set_ollama_model | Ollama モデルを設定します。 | model_name (文字列) |
set_ollama_url | Ollama サーバーの URL を設定します。 | url (文字列) |
get_ollama_models | 利用可能な Ollama モデルを一覧表示します。 | なし |
トラブルシューティング
問題が発生した場合:
- Ollama と
blender-open-mcp
サーバーが実行されていることを確認します。 - Blenderのアドオン設定を確認してください。
- コマンドライン引数を確認します。
- エラーの詳細についてはログを参照してください。
さらにサポートが必要な場合は、 GitHub の問題ページをご覧ください。
AIとのブレンディングを楽しみましょう!🚀
This server cannot be installed
モデル コンテキスト プロトコルを介して Blender をローカル AI モデルと統合するサーバー。これにより、ユーザーは 3D モデリング タスク用の自然言語プロンプトを使用して Blender を制御できます。