Blender Open MCP

by dhakalnirajan
Verified

local-only server

The server can only run on the client’s local machine because it depends on local resources.

Integrations

  • Enables control of Blender using natural language prompts, allowing for 3D modeling tasks such as creating and modifying objects, applying materials, and rendering images through a Blender add-on that handles communication with the server.

  • Uses locally running Ollama models to process natural language commands, with the ability to switch between different models like llama3.2 or Gemma3, and query available models from the Ollama server.

licuadora-open-mcp

blender-open-mcp es un proyecto de código abierto que integra Blender con modelos de IA locales (a través de Ollama ) mediante el Protocolo de Contexto de Modelo (MCP). Esto permite controlar Blender mediante indicaciones en lenguaje natural, aprovechando el poder de la IA para facilitar las tareas de modelado 3D.

Características

  • Controle Blender con lenguaje natural: envíe indicaciones a un modelo Ollama que se ejecuta localmente para realizar acciones en Blender.
  • Integración MCP: utiliza el protocolo de contexto de modelo para la comunicación estructurada entre el modelo de IA y Blender.
  • Compatibilidad con Ollama: diseñado para funcionar con Ollama para una fácil gestión de modelos locales.
  • Complemento de Blender: incluye un complemento de Blender para proporcionar una interfaz de usuario y manejar la comunicación con el servidor.
  • Integración con PolyHaven (opcional): descargue y use activos (HDRI, texturas, modelos) de PolyHaven directamente en Blender a través de indicaciones de IA.
  • Operaciones 3D básicas:
    • Obtener información de la escena y del objeto
    • Crear primitivos
    • Modificar y eliminar objetos
    • Aplicar materiales
  • Soporte de renderizado: renderice imágenes usando la herramienta y recupere información en función del resultado.

Instalación

Prerrequisitos

  1. Blender: Blender 3.0 o posterior. Descargar desde blender.org .
  2. Ollama: instalar desde ollama.com , siguiendo las instrucciones específicas del sistema operativo.
  3. Python: Python 3.10 o posterior.
  4. uv: Instalar usando pip install uv .
  5. Git: necesario para clonar el repositorio.

Pasos de instalación

  1. Clonar el repositorio:
    git clone https://github.com/dhakalnirajan/blender-open-mcp.git cd blender-open-mcp
  2. Crear y activar un entorno virtual (recomendado):
    uv venv source .venv/bin/activate # On Linux/macOS .venv\Scripts\activate # On Windows
  3. Dependencias de instalación:
    uv pip install -e .
  4. Instalar el complemento Blender:
    • Abra Blender.
    • Vaya a Edit -> Preferences -> Add-ons .
    • Haga clic en Install... .
    • Seleccione el archivo addon.py del directorio blender-open-mcp .
    • Habilite el complemento “Blender MCP”.
  5. Descargue un modelo de Ollama (si aún no está instalado):
    ollama run llama3.2
    (También se pueden utilizar otros modelos como Gemma3 .)

Configuración

  1. Inicie el servidor Ollama: asegúrese de que Ollama esté ejecutándose en segundo plano.
  2. Inicie el servidor MCP:
    blender-mcp
    O,
    python src/blender_open_mcp/server.py
    De forma predeterminada, escucha en http://0.0.0.0:8000 , pero puedes modificar la configuración:
    blender-mcp --host 127.0.0.1 --port 8001 --ollama-url http://localhost:11434 --ollama-model llama3.2
  3. Inicie el servidor de complementos de Blender:
    • Abra Blender y la ventana gráfica 3D.
    • Presione N para abrir la barra lateral.
    • Busque el panel "Blender MCP".
    • Haga clic en "Iniciar servidor MCP".

Uso

Interactúe con blender-open-mcp usando la herramienta de línea de comandos mcp :

Comandos de ejemplo

  • Indicación básica:
    mcp prompt "Hello BlenderMCP!" --host http://localhost:8000
  • Obtener información de la escena:
    mcp tool get_scene_info --host http://localhost:8000
  • Crear un cubo:
    mcp prompt "Create a cube named 'my_cube'." --host http://localhost:8000
  • Renderizar una imagen:
    mcp prompt "Render the image." --host http://localhost:8000
  • Usando PolyHaven (si está habilitado):
    mcp prompt "Download a texture from PolyHaven." --host http://localhost:8000

Herramientas disponibles

Nombre de la herramientaDescripciónParámetros
get_scene_infoRecupera detalles de la escena.Ninguno
get_object_infoRecupera información sobre un objeto.object_name (str)
create_objectCrea un objeto 3D.type , name , location , rotation , scale
modify_objectModifica las propiedades de un objeto.name , location , rotation , scale , visible
delete_objectElimina un objeto.name (str)
set_materialAsigna un material a un objeto.object_name , material_name , color
render_imageRepresenta una imagen.file_path (str)
execute_blender_codeEjecuta código Python en Blender.code (str)
get_polyhaven_categoriesEnumera las categorías de activos de PolyHaven.asset_type (cadena)
search_polyhaven_assetsBusca activos de PolyHaven.asset_type , categories
download_polyhaven_assetDescarga un activo de PolyHaven.asset_id , asset_type , resolution , file_format
set_textureAplica una textura descargada.object_name , texture_id
set_ollama_modelEstablece el modelo Ollama.model_name (str)
set_ollama_urlEstablece la URL del servidor Ollama.url (cadena)
get_ollama_modelsEnumera los modelos de Ollama disponibles.Ninguno

Solución de problemas

Si encuentra problemas:

  • Asegúrese de que Ollama y el servidor blender-open-mcp estén ejecutándose.
  • Verifique la configuración de complementos de Blender.
  • Verificar los argumentos de la línea de comandos.
  • Consulte los registros para obtener detalles de los errores.

Para obtener más ayuda, visita la página de problemas de GitHub .


¡Feliz fusión con IA! 🚀

-
security - not tested
F
license - not found
-
quality - not tested

Un servidor que integra Blender con modelos de IA locales a través del Protocolo de Contexto de Modelo, lo que permite a los usuarios controlar Blender utilizando indicaciones en lenguaje natural para tareas de modelado 3D.

  1. Features
    1. Installation
      1. Prerequisites
      2. Installation Steps
    2. Setup
      1. Usage
        1. Example Commands
      2. Available Tools
        1. Troubleshooting
          ID: lgjbewkykg