Blender Open MCP

by dhakalnirajan
Verified

local-only server

The server can only run on the client’s local machine because it depends on local resources.

Integrations

  • Enables control of Blender using natural language prompts, allowing for 3D modeling tasks such as creating and modifying objects, applying materials, and rendering images through a Blender add-on that handles communication with the server.

  • Uses locally running Ollama models to process natural language commands, with the ability to switch between different models like llama3.2 or Gemma3, and query available models from the Ollama server.

blender-open-mcp

blender-open-mcp是一个开源项目,它使用模型上下文协议 (MCP) 将 Blender 与本地 AI 模型(通过Ollama )集成。这允许您使用自然语言提示来控制 Blender,利用 AI 的强大功能来协助完成 3D 建模任务。

特征

  • **使用自然语言控制 Blender:**向本地运行的 Ollama 模型发送提示以在 Blender 中执行操作。
  • **MCP 集成:**使用模型上下文协议在 AI 模型和 Blender 之间进行结构化通信。
  • **Ollama 支持:**设计用于与 Ollama 配合使用,以便轻松管理本地模型。
  • **Blender 插件:**包括一个 Blender 插件,用于提供用户界面并处理与服务器的通信。
  • **PolyHaven 集成(可选):**通过 AI 提示直接在 Blender 中从PolyHaven下载并使用资产(HDRI、纹理、模型)。
  • 基本3D操作:
    • 获取场景和对象信息
    • 创建基本体
    • 修改和删除对象
    • 应用材料
  • **渲染支持:**使用该工具渲染图像并根据输出检索信息。

安装

先决条件

  1. Blender: Blender 3.0 或更高版本。从blender.org下载。
  2. **Ollama:**ollama.com安装,按照特定于操作系统的说明进行操作。
  3. Python: Python 3.10 或更高版本。
  4. **uv:**使用pip install uv安装。
  5. **Git:**克隆存储库所需。

安装步骤

  1. 克隆存储库:
    git clone https://github.com/dhakalnirajan/blender-open-mcp.git cd blender-open-mcp
  2. 创建并激活虚拟环境(推荐):
    uv venv source .venv/bin/activate # On Linux/macOS .venv\Scripts\activate # On Windows
  3. 安装依赖项:
    uv pip install -e .
  4. 安装 Blender 插件:
    • 打开 Blender。
    • 转到Edit -> Preferences -> Add-ons
    • 单击Install...
    • blender-open-mcp目录中选择addon.py文件。
    • 启用“Blender MCP”插件。
  5. 下载 Ollama 模型(如果尚未安装):
    ollama run llama3.2
    (也可以使用*Gemma3*等其他模型。)

设置

  1. **启动 Ollama 服务器:**确保 Ollama 在后台运行。
  2. 启动 MCP 服务器:
    blender-mcp
    或者,
    python src/blender_open_mcp/server.py
    默认情况下,它监听http://0.0.0.0:8000 ,但您可以修改设置:
    blender-mcp --host 127.0.0.1 --port 8001 --ollama-url http://localhost:11434 --ollama-model llama3.2
  3. 启动Blender附加服务器:
    • 打开 Blender 和 3D 视口。
    • N打开侧边栏。
    • 找到“Blender MCP”面板。
    • 点击“启动 MCP 服务器”。

用法

使用mcp命令行工具与blender-open-mcp交互:

示例命令

  • 基本提示:
    mcp prompt "Hello BlenderMCP!" --host http://localhost:8000
  • 获取场景信息:
    mcp tool get_scene_info --host http://localhost:8000
  • 创建立方体:
    mcp prompt "Create a cube named 'my_cube'." --host http://localhost:8000
  • 渲染图像:
    mcp prompt "Render the image." --host http://localhost:8000
  • 使用 PolyHaven(如果启用):
    mcp prompt "Download a texture from PolyHaven." --host http://localhost:8000

可用工具

工具名称描述参数
get_scene_info检索场景详细信息。没有任何
get_object_info检索有关对象的信息。object_name (字符串)
create_object创建一个 3D 对象。typenamelocationrotationscale
modify_object修改对象的属性。namelocationrotationscalevisible
delete_object删除一个对象。name (字符串)
set_material为对象指定材质。object_namematerial_namecolor
render_image渲染图像。file_path (字符串)
execute_blender_code在 Blender 中执行 Python 代码。code (字符串)
get_polyhaven_categories列出 PolyHaven 资产类别。asset_type (字符串)
search_polyhaven_assets搜索 PolyHaven 资产。asset_typecategories
download_polyhaven_asset下载 PolyHaven 资产。asset_idasset_typeresolutionfile_format
set_texture应用下载的纹理。object_nametexture_id
set_ollama_model设置Ollama模型。model_name (字符串)
set_ollama_url设置 Ollama 服务器 URL。url (字符串)
get_ollama_models列出可用的 Ollama 模型。没有任何

故障排除

如果您遇到问题:

  • 确保 Ollama 和blender-open-mcp服务器正在运行。
  • 检查 Blender 的附加组件设置。
  • 验证命令行参数。
  • 请参阅日志以了解错误详细信息。

如需进一步帮助,请访问GitHub 问题页面。


祝您与 AI 愉快融合!🚀

-
security - not tested
F
license - not found
-
quality - not tested

通过模型上下文协议将 Blender 与本地 AI 模型集成的服务器,允许用户使用自然语言提示来控制 Blender 执行 3D 建模任务。

  1. Features
    1. Installation
      1. Prerequisites
      2. Installation Steps
    2. Setup
      1. Usage
        1. Example Commands
      2. Available Tools
        1. Troubleshooting
          ID: lgjbewkykg