Unity MCP with Ollama Integration

local-only server

The server can only run on the client’s local machine because it depends on local resources.

Integrations

  • Enables communication between Unity and local Large Language Models (LLMs) running through Ollama, allowing developers to automate Unity workflows, manipulate assets, and control the Unity Editor programmatically without cloud-based LLMs.

  • Provides bidirectional communication with Unity for asset management, scene control, material editing, script integration, and editor automation functions like undo, redo, play, and build operations.

Integración de Unity MCP con Ollama

Un paquete MCP (Protocolo de Contexto de Modelo) de Unity que permite una comunicación fluida entre Unity y los Modelos de Lenguaje Grandes (LLM) locales a través de Ollama. Este paquete extiende justinpbarnett/unity-mcp para funcionar con LLM locales, lo que permite a los desarrolladores automatizar flujos de trabajo, manipular recursos y controlar el Editor de Unity mediante programación sin depender de LLM en la nube.

Descripción general

El MCP de Unity con integración de Ollama proporciona un canal de comunicación bidireccional entre:

  1. Unity (a través de C#)
  2. Un servidor MCP de Python
  3. LLM locales que operan a través de Ollama

Esto permite:

  • Gestión de activos : cree, importe y manipule activos de Unity mediante programación
  • Control de escena : administre escenas, objetos y sus propiedades
  • Edición de materiales : modificar materiales y sus propiedades
  • Integración de scripts : ver, crear y actualizar scripts de Unity
  • Automatización del editor : controle las funciones del editor de Unity como deshacer, rehacer, reproducir y compilar

Todo impulsado por sus propios LLM locales, sin necesidad de una conexión a Internet o claves API.

Modelos compatibles

Esta implementación está configurada específicamente para funcionar con los siguientes modelos de Ollama:

  • deepseek-r1:14b : un modelo de 14 mil millones de parámetros con sólidas capacidades de razonamiento
  • gemma3:12b - El modelo de 12 mil millones de parámetros de Google con buenas capacidades generales

Puede cambiar fácilmente entre estos modelos en la ventana de Unity MCP.

Instalación (método de activos)

Debido a problemas de compatibilidad del administrador de paquetes de Unity, recomendamos utilizar el método de activos para la instalación.

Prerrequisitos

  • Unity 2020.3 LTS o más reciente
  • Python 3.10 o más reciente
  • Ollama instalado en su sistema
  • Los siguientes modelos LLM se incluyeron en Ollama:
    • ollama pull deepseek-r1:14b
    • ollama pull gemma3:12b

Paso 1: Descargue e instale los scripts del editor

  1. Descargue o clone este repositorio:
    git clone https://github.com/ZundamonnoVRChatkaisetu/unity-mcp-ollama.git
  2. Crea una carpeta en el directorio Activos de tu proyecto de Unity:
    Assets/UnityMCPOllama
  3. Copie la carpeta Editor del repositorio clonado a su proyecto de Unity:
    # Copy the entire Editor folder [Repository]/Editor → Assets/UnityMCPOllama/Editor
  4. Verifique que la estructura de la carpeta sea correcta:
    Assets/ UnityMCPOllama/ Editor/ MCPEditorWindow.cs UnityMCPBridge.cs
  5. Deje que Unity importe y compile los scripts

Paso 2: Configurar el entorno de Python

  1. Crea una carpeta para el entorno de Python (fuera de tu proyecto de Unity):
    mkdir PythonMCP cd PythonMCP
  2. Copie la carpeta Python del repositorio clonado:
    cp -r [Repository]/Python .
  3. Crear y activar un entorno virtual:
    # Create a virtual environment python -m venv venv # Activate the virtual environment # On Windows: venv\Scripts\activate # On macOS/Linux: source venv/bin/activate
  4. Instalar dependencias:
    cd Python pip install -e .

Paso 3: Configurar Ollama

  1. Asegúrese de que Ollama esté instalado y ejecutándose en su sistema
  2. Extraiga los modelos compatibles:
    ollama pull deepseek-r1:14b ollama pull gemma3:12b
  3. Iniciar el servidor Ollama:
    ollama serve

Uso de Unity MCP con Ollama

Paso 1: Iniciar Unity Bridge

  1. Abra su proyecto de Unity
  2. Vaya a Window > Unity MCP para abrir la ventana MCP
  3. Haga clic en el botón Iniciar puente para iniciar el puente de Unity

Paso 2: Iniciar el servidor Python

  1. Abra un símbolo del sistema o una terminal
  2. Navegue a su entorno de Python:
    cd PythonMCP
  3. Activar el entorno virtual:
    # On Windows: venv\Scripts\activate # On macOS/Linux: source venv/bin/activate
  4. Navegue al directorio de Python e inicie el servidor:
    cd Python python server.py

Paso 3: Configurar los ajustes de Ollama

  1. En la ventana de Unity MCP, ubique la sección Configuración de Ollama
  2. Verifique o actualice las siguientes configuraciones:
    • Host : localhost (predeterminado)
    • Puerto : 11434 (predeterminado)
    • Modelo : Seleccione deepseek-r1:14b o gemma3:12b
    • Temperatura : ajuste según sea necesario (0,0-1,0)
  3. Haga clic en Aplicar configuración de Ollama

Paso 4: Utilizar la interfaz de chat

  1. Haga clic en el botón Mostrar interfaz de chat en la ventana de Unity MCP
  2. Escriba sus instrucciones en el campo de mensaje.
  3. Haga clic en Enviar para procesar su solicitud

Ejemplos de indicaciones:

  • "Crea un cubo rojo en la posición (0, 1, 0)"
  • Añade una esfera a la escena y aplica un material azul.
  • "Enumerar todos los objetos en la escena actual"
  • "Escribe un guión de movimiento simple y adjúntalo al cubo"

Indicadores de estado de la conexión

La ventana de Unity MCP proporciona información de estado para cada componente:

  • Estado del servidor Python : indica si el servidor Python se está ejecutando
    • Verde: Conectado
    • Amarillo: Conectado pero con problemas
    • Rojo: No conectado
  • Estado del puente de Unity : muestra si el servidor de sockets de Unity se está ejecutando
    • Corriendo: Unity está escuchando conexiones
    • Detenido: el servidor de sockets de Unity no está activo
  • Estado de Ollama : muestra el estado de la conexión a Ollama
    • Conectado: Se conectó exitosamente al servidor Ollama
    • No conectado: No se puede conectar a Ollama

Solución de problemas

Problemas comunes

  1. Estado "No conectado" para el servidor Python
    • Asegúrese de que el servidor Python esté en ejecución ( python server.py )
    • Comprobar errores en la consola de Python
    • Verifique que Unity Bridge esté ejecutándose
  2. No se puede encontrar el menú MCP de Unity
    • Asegúrese de que los scripts del Editor se importen correctamente en su proyecto
    • Comprueba si hay errores en la consola de Unity
    • Reinicie Unity si es necesario
  3. Problemas de conexión de Ollama
    • Verifique que Ollama se esté ejecutando con ollama serve
    • Compruebe que los modelos se extraen correctamente
    • Asegúrese de que ningún firewall esté bloqueando el puerto 11434
  4. La ejecución del comando MCP falla
    • Consulte la consola de Python para ver mensajes de error detallados
    • Verifique que Unity Bridge se esté ejecutando
    • Asegúrese de que la instrucción sea clara y específica

Instrucciones de configuración explícitas para el entorno Python

Si encuentra problemas al configurar el entorno de Python:

  1. Instalar Python 3.10 o más reciente
  2. Instalar Ollama desde ollama.ai
  3. Cree un directorio dedicado para el entorno de Python:
    mkdir C:\PythonMCP cd C:\PythonMCP
  4. Clone o descargue este repositorio y copie la carpeta Python:
    git clone https://github.com/ZundamonnoVRChatkaisetu/unity-mcp-ollama.git copy unity-mcp-ollama\Python .
  5. Crear un entorno virtual:
    python -m venv venv
  6. Activar el entorno virtual:
    venv\Scripts\activate
  7. Instalar dependencias:
    cd Python pip install -e .
  8. Ejecutar el servidor:
    python server.py

Consideraciones de rendimiento

El rendimiento de LLM local depende de su hardware:

  • Para deepseek-r1:14b : Se recomienda un mínimo de 12 GB de VRAM
  • Para gemma3:12b : Se recomienda un mínimo de 10 GB de VRAM
  • Es posible operar solo con CPU, pero será significativamente más lento

Contribuyendo

¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios o abrir un problema.

Licencia

Este proyecto está licenciado bajo la licencia MIT.

Expresiones de gratitud

-
security - not tested
A
license - permissive license
-
quality - not tested

Un servidor que conecta Unity con grandes modelos de lenguaje locales a través de Ollama, lo que permite a los desarrolladores automatizar flujos de trabajo, manipular activos y controlar el Editor de Unity mediante programación sin depender de LLM basados en la nube.

  1. Overview
    1. Supported Models
      1. Installation (Asset Method)
        1. Prerequisites
        2. Step 1: Download and Install Editor Scripts
        3. Step 2: Set Up Python Environment
        4. Step 3: Configure Ollama
      2. Using Unity MCP with Ollama
        1. Step 1: Start Unity Bridge
        2. Step 2: Start Python Server
        3. Step 3: Configure Ollama Settings
        4. Step 4: Use the Chat Interface
      3. Connection Status Indicators
        1. Troubleshooting
          1. Common Issues
          2. Explicit Setup Instructions for Python Environment
        2. Performance Considerations
          1. Contributing
            1. License
              1. Acknowledgments
                ID: 5bav8wr998