Skip to main content
Glama

블렌더-오픈-mcp

blender-open-mcp 는 Model Context Protocol(MCP)을 사용하여 Blender를 로컬 AI 모델( Ollama를 통해)과 통합하는 오픈 소스 프로젝트입니다. 이를 통해 자연어 프롬프트를 사용하여 Blender를 제어하고, AI의 힘을 활용하여 3D 모델링 작업을 지원할 수 있습니다.

특징

  • 자연어로 Blender 제어: 로컬에서 실행되는 Ollama 모델에 프롬프트를 보내 Blender에서 작업을 수행합니다.

  • MCP 통합: AI 모델과 Blender 간의 구조화된 통신을 위해 모델 컨텍스트 프로토콜을 사용합니다.

  • Ollama 지원: Ollama와 협력하여 로컬 모델을 쉽게 관리할 수 있도록 설계되었습니다.

  • Blender 애드온: 사용자 인터페이스를 제공하고 서버와의 통신을 처리하는 Blender 애드온이 포함되어 있습니다.

  • PolyHaven 통합(선택 사항): AI 프롬프트를 통해 PolyHaven 에서 자산(HDRI, 텍스처, 모델)을 직접 다운로드하여 Blender에서 사용할 수 있습니다.

  • 기본 3D 작업:

    • 장면 및 객체 정보 가져오기

    • 기본형 만들기

    • 객체 수정 및 삭제

    • 재료를 적용하다

  • 렌더링 지원: 도구를 사용하여 이미지를 렌더링하고 출력에 따라 정보를 검색합니다.

Related MCP server: SupaUI MCP Server

설치

필수 조건

  1. 블렌더: 블렌더 3.0 이상. blender.org 에서 다운로드하세요.

  2. Ollama: ollama.com 에서 설치하고 OS별 지침을 따르세요.

  3. Python: Python 3.10 이상.

  4. uv: pip install uv 사용하여 설치합니다.

  5. Git: 저장소를 복제하는 데 필요합니다.

설치 단계

  1. 저장소 복제:

    지엑스피1

  2. 가상 환경 만들기 및 활성화(권장):

    uv venv source .venv/bin/activate # On Linux/macOS .venv\Scripts\activate # On Windows
  3. 종속성 설치:

    uv pip install -e .
  4. Blender 애드온을 설치하세요:

    • 블렌더를 엽니다.

    • Edit -> Preferences -> Add-ons 으로 이동합니다.

    • Install... 클릭합니다.

    • blender-open-mcp 디렉토리에서 addon.py 파일을 선택합니다.

    • "Blender MCP" 애드온을 활성화합니다.

  5. Ollama 모델을 다운로드하세요(아직 설치되지 않은 경우):

    ollama run llama3.2

    (

설정

  1. Ollama 서버를 시작합니다. Ollama가 백그라운드에서 실행 중인지 확인합니다.

  2. MCP 서버를 시작합니다.

    blender-mcp

    또는,

    python src/blender_open_mcp/server.py

    기본적으로 http://0.0.0.0:8000 에서 수신하지만 설정을 수정할 수 있습니다.

    blender-mcp --host 127.0.0.1 --port 8001 --ollama-url http://localhost:11434 --ollama-model llama3.2
  3. Blender 애드온 서버를 시작합니다.

    • Blender와 3D 뷰포트를 엽니다.

    • N 눌러 사이드바를 엽니다.

    • "Blender MCP" 패널을 찾으세요.

    • "MCP 서버 시작"을 클릭합니다.

용법

mcp 명령줄 도구를 사용하여 blender-open-mcp 와 상호 작용합니다.

예제 명령

  • 기본 프롬프트:

    mcp prompt "Hello BlenderMCP!" --host http://localhost:8000
  • 장면 정보 얻기:

    mcp tool get_scene_info --host http://localhost:8000
  • 큐브 만들기:

    mcp prompt "Create a cube named 'my_cube'." --host http://localhost:8000
  • 이미지 렌더링:

    mcp prompt "Render the image." --host http://localhost:8000
  • PolyHaven 사용(활성화된 경우):

    mcp prompt "Download a texture from PolyHaven." --host http://localhost:8000

사용 가능한 도구

도구 이름

설명

매개변수

get_scene_info

장면 세부 정보를 검색합니다.

없음

get_object_info

객체에 대한 정보를 검색합니다.

object_name

(str)

create_object

3D 객체를 생성합니다.

type

,

name

,

location

,

rotation

,

scale

modify_object

객체의 속성을 수정합니다.

name

,

location

,

rotation

,

scale

,

visible

delete_object

객체를 삭제합니다.

name

(str)

set_material

객체에 재질을 할당합니다.

object_name

,

material_name

,

color

render_image

이미지를 렌더링합니다.

file_path

(str)

execute_blender_code

Blender에서 Python 코드를 실행합니다.

code

(str)

get_polyhaven_categories

PolyHaven 자산 카테고리를 나열합니다.

asset_type

(str)

search_polyhaven_assets

PolyHaven 자산을 검색합니다.

asset_type

,

categories

download_polyhaven_asset

PolyHaven 자산을 다운로드합니다.

asset_id

,

asset_type

,

resolution

,

file_format

set_texture

다운로드한 텍스처를 적용합니다.

object_name

,

texture_id

set_ollama_model

올라마 모델을 설정합니다.

model_name

(str)

set_ollama_url

Ollama 서버 URL을 설정합니다.

url

(str)

get_ollama_models

사용 가능한 Ollama 모델을 나열합니다.

없음

문제 해결

문제가 발생하는 경우:

  • Ollama와 blender-open-mcp 서버가 실행 중인지 확인하세요.

  • Blender의 추가 기능 설정을 확인하세요.

  • 명령줄 인수를 확인합니다.

  • 오류 세부 정보는 로그를 참조하세요.

추가 지원이 필요하면 GitHub 문제 페이지를 방문하세요.


AI와 함께 즐거운 블렌딩을 경험하세요! 🚀

-
security - not tested
F
license - not found
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/dhakalnirajan/blender-open-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server