Skip to main content
Glama

Unity MCP with Ollama Integration

Integración de Unity MCP con Ollama

Un paquete MCP (Protocolo de Contexto de Modelo) de Unity que permite una comunicación fluida entre Unity y los Modelos de Lenguaje Grandes (LLM) locales a través de Ollama. Este paquete extiende justinpbarnett/unity-mcp para funcionar con LLM locales, lo que permite a los desarrolladores automatizar flujos de trabajo, manipular recursos y controlar el Editor de Unity mediante programación sin depender de LLM en la nube.

Descripción general

El MCP de Unity con integración de Ollama proporciona un canal de comunicación bidireccional entre:

  1. Unity (a través de C#)
  2. Un servidor MCP de Python
  3. LLM locales que operan a través de Ollama

Esto permite:

  • Gestión de activos : cree, importe y manipule activos de Unity mediante programación
  • Control de escena : administre escenas, objetos y sus propiedades
  • Edición de materiales : modificar materiales y sus propiedades
  • Integración de scripts : ver, crear y actualizar scripts de Unity
  • Automatización del editor : controle las funciones del editor de Unity como deshacer, rehacer, reproducir y compilar

Todo impulsado por sus propios LLM locales, sin necesidad de una conexión a Internet o claves API.

Modelos compatibles

Esta implementación está configurada específicamente para funcionar con los siguientes modelos de Ollama:

  • deepseek-r1:14b : un modelo de 14 mil millones de parámetros con sólidas capacidades de razonamiento
  • gemma3:12b - El modelo de 12 mil millones de parámetros de Google con buenas capacidades generales

Puede cambiar fácilmente entre estos modelos en la ventana de Unity MCP.

Instalación (método de activos)

Debido a problemas de compatibilidad del administrador de paquetes de Unity, recomendamos utilizar el método de activos para la instalación.

Prerrequisitos

  • Unity 2020.3 LTS o más reciente
  • Python 3.10 o más reciente
  • Ollama instalado en su sistema
  • Los siguientes modelos LLM se incluyeron en Ollama:
    • ollama pull deepseek-r1:14b
    • ollama pull gemma3:12b

Paso 1: Descargue e instale los scripts del editor

  1. Descargue o clone este repositorio:
    git clone https://github.com/ZundamonnoVRChatkaisetu/unity-mcp-ollama.git
  2. Crea una carpeta en el directorio Activos de tu proyecto de Unity:
    Assets/UnityMCPOllama
  3. Copie la carpeta Editor del repositorio clonado a su proyecto de Unity:
    # Copy the entire Editor folder [Repository]/Editor → Assets/UnityMCPOllama/Editor
  4. Verifique que la estructura de la carpeta sea correcta:
    Assets/ UnityMCPOllama/ Editor/ MCPEditorWindow.cs UnityMCPBridge.cs
  5. Deje que Unity importe y compile los scripts

Paso 2: Configurar el entorno de Python

  1. Crea una carpeta para el entorno de Python (fuera de tu proyecto de Unity):
    mkdir PythonMCP cd PythonMCP
  2. Copie la carpeta Python del repositorio clonado:
    cp -r [Repository]/Python .
  3. Crear y activar un entorno virtual:
    # Create a virtual environment python -m venv venv # Activate the virtual environment # On Windows: venv\Scripts\activate # On macOS/Linux: source venv/bin/activate
  4. Instalar dependencias:
    cd Python pip install -e .

Paso 3: Configurar Ollama

  1. Asegúrese de que Ollama esté instalado y ejecutándose en su sistema
  2. Extraiga los modelos compatibles:
    ollama pull deepseek-r1:14b ollama pull gemma3:12b
  3. Iniciar el servidor Ollama:
    ollama serve

Uso de Unity MCP con Ollama

Paso 1: Iniciar Unity Bridge

  1. Abra su proyecto de Unity
  2. Vaya a Window > Unity MCP para abrir la ventana MCP
  3. Haga clic en el botón Iniciar puente para iniciar el puente de Unity

Paso 2: Iniciar el servidor Python

  1. Abra un símbolo del sistema o una terminal
  2. Navegue a su entorno de Python:
    cd PythonMCP
  3. Activar el entorno virtual:
    # On Windows: venv\Scripts\activate # On macOS/Linux: source venv/bin/activate
  4. Navegue al directorio de Python e inicie el servidor:
    cd Python python server.py

Paso 3: Configurar los ajustes de Ollama

  1. En la ventana de Unity MCP, ubique la sección Configuración de Ollama
  2. Verifique o actualice las siguientes configuraciones:
    • Host : localhost (predeterminado)
    • Puerto : 11434 (predeterminado)
    • Modelo : Seleccione deepseek-r1:14b o gemma3:12b
    • Temperatura : ajuste según sea necesario (0,0-1,0)
  3. Haga clic en Aplicar configuración de Ollama

Paso 4: Utilizar la interfaz de chat

  1. Haga clic en el botón Mostrar interfaz de chat en la ventana de Unity MCP
  2. Escriba sus instrucciones en el campo de mensaje.
  3. Haga clic en Enviar para procesar su solicitud

Ejemplos de indicaciones:

  • "Crea un cubo rojo en la posición (0, 1, 0)"
  • Añade una esfera a la escena y aplica un material azul.
  • "Enumerar todos los objetos en la escena actual"
  • "Escribe un guión de movimiento simple y adjúntalo al cubo"

Indicadores de estado de la conexión

La ventana de Unity MCP proporciona información de estado para cada componente:

  • Estado del servidor Python : indica si el servidor Python se está ejecutando
    • Verde: Conectado
    • Amarillo: Conectado pero con problemas
    • Rojo: No conectado
  • Estado del puente de Unity : muestra si el servidor de sockets de Unity se está ejecutando
    • Corriendo: Unity está escuchando conexiones
    • Detenido: el servidor de sockets de Unity no está activo
  • Estado de Ollama : muestra el estado de la conexión a Ollama
    • Conectado: Se conectó exitosamente al servidor Ollama
    • No conectado: No se puede conectar a Ollama

Solución de problemas

Problemas comunes

  1. Estado "No conectado" para el servidor Python
    • Asegúrese de que el servidor Python esté en ejecución ( python server.py )
    • Comprobar errores en la consola de Python
    • Verifique que Unity Bridge esté ejecutándose
  2. No se puede encontrar el menú MCP de Unity
    • Asegúrese de que los scripts del Editor se importen correctamente en su proyecto
    • Comprueba si hay errores en la consola de Unity
    • Reinicie Unity si es necesario
  3. Problemas de conexión de Ollama
    • Verifique que Ollama se esté ejecutando con ollama serve
    • Compruebe que los modelos se extraen correctamente
    • Asegúrese de que ningún firewall esté bloqueando el puerto 11434
  4. La ejecución del comando MCP falla
    • Consulte la consola de Python para ver mensajes de error detallados
    • Verifique que Unity Bridge se esté ejecutando
    • Asegúrese de que la instrucción sea clara y específica

Instrucciones de configuración explícitas para el entorno Python

Si encuentra problemas al configurar el entorno de Python:

  1. Instalar Python 3.10 o más reciente
  2. Instalar Ollama desde ollama.ai
  3. Cree un directorio dedicado para el entorno de Python:
    mkdir C:\PythonMCP cd C:\PythonMCP
  4. Clone o descargue este repositorio y copie la carpeta Python:
    git clone https://github.com/ZundamonnoVRChatkaisetu/unity-mcp-ollama.git copy unity-mcp-ollama\Python .
  5. Crear un entorno virtual:
    python -m venv venv
  6. Activar el entorno virtual:
    venv\Scripts\activate
  7. Instalar dependencias:
    cd Python pip install -e .
  8. Ejecutar el servidor:
    python server.py

Consideraciones de rendimiento

El rendimiento de LLM local depende de su hardware:

  • Para deepseek-r1:14b : Se recomienda un mínimo de 12 GB de VRAM
  • Para gemma3:12b : Se recomienda un mínimo de 10 GB de VRAM
  • Es posible operar solo con CPU, pero será significativamente más lento

Contribuyendo

¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios o abrir un problema.

Licencia

Este proyecto está licenciado bajo la licencia MIT.

Expresiones de gratitud

-
security - not tested
A
license - permissive license
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

Un servidor que conecta Unity con grandes modelos de lenguaje locales a través de Ollama, lo que permite a los desarrolladores automatizar flujos de trabajo, manipular activos y controlar el Editor de Unity mediante programación sin depender de LLM basados en la nube.

  1. Descripción general
    1. Modelos compatibles
      1. Instalación (método de activos)
        1. Prerrequisitos
        2. Paso 1: Descargue e instale los scripts del editor
        3. Paso 2: Configurar el entorno de Python
        4. Paso 3: Configurar Ollama
      2. Uso de Unity MCP con Ollama
        1. Paso 1: Iniciar Unity Bridge
        2. Paso 2: Iniciar el servidor Python
        3. Paso 3: Configurar los ajustes de Ollama
        4. Paso 4: Utilizar la interfaz de chat
      3. Indicadores de estado de la conexión
        1. Solución de problemas
          1. Problemas comunes
          2. Instrucciones de configuración explícitas para el entorno Python
        2. Consideraciones de rendimiento
          1. Contribuyendo
            1. Licencia
              1. Expresiones de gratitud

                Related MCP Servers

                • -
                  security
                  A
                  license
                  -
                  quality
                  A bridge enabling seamless communication between Unity and Large Language Models via the Model Context Protocol, allowing developers to automate workflows, manipulate assets, and control the Unity Editor programmatically.
                  Last updated -
                  1,449
                  MIT License
                  • Linux
                  • Apple
                • -
                  security
                  A
                  license
                  -
                  quality
                  A server that enables AI assistants to understand and interact with Unity projects in real-time, providing access to scene hierarchy, project settings, and the ability to execute code directly in the Unity Editor.
                  Last updated -
                  40
                  MIT License
                  • Linux
                  • Apple
                • -
                  security
                  A
                  license
                  -
                  quality
                  A Model Context Protocol server that provides access to Unity Catalog Functions, allowing AI assistants to list, get, create, and delete functions within Unity Catalog directly through a standardized interface.
                  Last updated -
                  8
                  Python
                  MIT License
                • -
                  security
                  F
                  license
                  -
                  quality
                  A Model Context Protocol server for Unity game development that enables users to manage projects, edit scenes, create prefabs, and generate scripts through natural language integration with Smithery.ai.
                  Last updated -
                  TypeScript

                View all related MCP servers

                MCP directory API

                We provide all the information about MCP servers via our MCP API.

                curl -X GET 'https://glama.ai/api/mcp/v1/servers/ZundamonnoVRChatkaisetu/unity-mcp-ollama'

                If you have feedback or need assistance with the MCP directory API, please join our Discord server