local-only server
The server can only run on the client’s local machine because it depends on local resources.
Integrations
Enables communication between Unity and local Large Language Models (LLMs) running through Ollama, allowing developers to automate Unity workflows, manipulate assets, and control the Unity Editor programmatically without cloud-based LLMs.
Provides bidirectional communication with Unity for asset management, scene control, material editing, script integration, and editor automation functions like undo, redo, play, and build operations.
Integración de Unity MCP con Ollama
Un paquete MCP (Protocolo de Contexto de Modelo) de Unity que permite una comunicación fluida entre Unity y los Modelos de Lenguaje Grandes (LLM) locales a través de Ollama. Este paquete extiende justinpbarnett/unity-mcp para funcionar con LLM locales, lo que permite a los desarrolladores automatizar flujos de trabajo, manipular recursos y controlar el Editor de Unity mediante programación sin depender de LLM en la nube.
Descripción general
El MCP de Unity con integración de Ollama proporciona un canal de comunicación bidireccional entre:
- Unity (a través de C#)
- Un servidor MCP de Python
- LLM locales que operan a través de Ollama
Esto permite:
- Gestión de activos : cree, importe y manipule activos de Unity mediante programación
- Control de escena : administre escenas, objetos y sus propiedades
- Edición de materiales : modificar materiales y sus propiedades
- Integración de scripts : ver, crear y actualizar scripts de Unity
- Automatización del editor : controle las funciones del editor de Unity como deshacer, rehacer, reproducir y compilar
Todo impulsado por sus propios LLM locales, sin necesidad de una conexión a Internet o claves API.
Modelos compatibles
Esta implementación está configurada específicamente para funcionar con los siguientes modelos de Ollama:
- deepseek-r1:14b : un modelo de 14 mil millones de parámetros con sólidas capacidades de razonamiento
- gemma3:12b - El modelo de 12 mil millones de parámetros de Google con buenas capacidades generales
Puede cambiar fácilmente entre estos modelos en la ventana de Unity MCP.
Instalación (método de activos)
Debido a problemas de compatibilidad del administrador de paquetes de Unity, recomendamos utilizar el método de activos para la instalación.
Prerrequisitos
- Unity 2020.3 LTS o más reciente
- Python 3.10 o más reciente
- Ollama instalado en su sistema
- Los siguientes modelos LLM se incluyeron en Ollama:
ollama pull deepseek-r1:14b
ollama pull gemma3:12b
Paso 1: Descargue e instale los scripts del editor
- Descargue o clone este repositorio:Copy
- Crea una carpeta en el directorio Activos de tu proyecto de Unity:Copy
- Copie la carpeta
Editor
del repositorio clonado a su proyecto de Unity:Copy - Verifique que la estructura de la carpeta sea correcta:Copy
- Deje que Unity importe y compile los scripts
Paso 2: Configurar el entorno de Python
- Crea una carpeta para el entorno de Python (fuera de tu proyecto de Unity):Copy
- Copie la carpeta Python del repositorio clonado:Copy
- Crear y activar un entorno virtual:Copy
- Instalar dependencias:Copy
Paso 3: Configurar Ollama
- Asegúrese de que Ollama esté instalado y ejecutándose en su sistema
- Extraiga los modelos compatibles:Copy
- Iniciar el servidor Ollama:Copy
Uso de Unity MCP con Ollama
Paso 1: Iniciar Unity Bridge
- Abra su proyecto de Unity
- Vaya a
Window > Unity MCP
para abrir la ventana MCP - Haga clic en el botón Iniciar puente para iniciar el puente de Unity
Paso 2: Iniciar el servidor Python
- Abra un símbolo del sistema o una terminal
- Navegue a su entorno de Python:Copy
- Activar el entorno virtual:Copy
- Navegue al directorio de Python e inicie el servidor:Copy
Paso 3: Configurar los ajustes de Ollama
- En la ventana de Unity MCP, ubique la sección Configuración de Ollama
- Verifique o actualice las siguientes configuraciones:
- Host : localhost (predeterminado)
- Puerto : 11434 (predeterminado)
- Modelo : Seleccione
deepseek-r1:14b
ogemma3:12b
- Temperatura : ajuste según sea necesario (0,0-1,0)
- Haga clic en Aplicar configuración de Ollama
Paso 4: Utilizar la interfaz de chat
- Haga clic en el botón Mostrar interfaz de chat en la ventana de Unity MCP
- Escriba sus instrucciones en el campo de mensaje.
- Haga clic en Enviar para procesar su solicitud
Ejemplos de indicaciones:
- "Crea un cubo rojo en la posición (0, 1, 0)"
- Añade una esfera a la escena y aplica un material azul.
- "Enumerar todos los objetos en la escena actual"
- "Escribe un guión de movimiento simple y adjúntalo al cubo"
Indicadores de estado de la conexión
La ventana de Unity MCP proporciona información de estado para cada componente:
- Estado del servidor Python : indica si el servidor Python se está ejecutando
- Verde: Conectado
- Amarillo: Conectado pero con problemas
- Rojo: No conectado
- Estado del puente de Unity : muestra si el servidor de sockets de Unity se está ejecutando
- Corriendo: Unity está escuchando conexiones
- Detenido: el servidor de sockets de Unity no está activo
- Estado de Ollama : muestra el estado de la conexión a Ollama
- Conectado: Se conectó exitosamente al servidor Ollama
- No conectado: No se puede conectar a Ollama
Solución de problemas
Problemas comunes
- Estado "No conectado" para el servidor Python
- Asegúrese de que el servidor Python esté en ejecución (
python server.py
) - Comprobar errores en la consola de Python
- Verifique que Unity Bridge esté ejecutándose
- Asegúrese de que el servidor Python esté en ejecución (
- No se puede encontrar el menú MCP de Unity
- Asegúrese de que los scripts del Editor se importen correctamente en su proyecto
- Comprueba si hay errores en la consola de Unity
- Reinicie Unity si es necesario
- Problemas de conexión de Ollama
- Verifique que Ollama se esté ejecutando con
ollama serve
- Compruebe que los modelos se extraen correctamente
- Asegúrese de que ningún firewall esté bloqueando el puerto 11434
- Verifique que Ollama se esté ejecutando con
- La ejecución del comando MCP falla
- Consulte la consola de Python para ver mensajes de error detallados
- Verifique que Unity Bridge se esté ejecutando
- Asegúrese de que la instrucción sea clara y específica
Instrucciones de configuración explícitas para el entorno Python
Si encuentra problemas al configurar el entorno de Python:
- Instalar Python 3.10 o más reciente
- Instalar Ollama desde ollama.ai
- Cree un directorio dedicado para el entorno de Python:Copy
- Clone o descargue este repositorio y copie la carpeta Python:Copy
- Crear un entorno virtual:Copy
- Activar el entorno virtual:Copy
- Instalar dependencias:Copy
- Ejecutar el servidor:Copy
Consideraciones de rendimiento
El rendimiento de LLM local depende de su hardware:
- Para deepseek-r1:14b : Se recomienda un mínimo de 12 GB de VRAM
- Para gemma3:12b : Se recomienda un mínimo de 10 GB de VRAM
- Es posible operar solo con CPU, pero será significativamente más lento
Contribuyendo
¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios o abrir un problema.
Licencia
Este proyecto está licenciado bajo la licencia MIT.
Expresiones de gratitud
- Basado en justinpbarnett/unity-mcp
- Utiliza Ollama para la integración local de LLM
This server cannot be installed
Un servidor que conecta Unity con grandes modelos de lenguaje locales a través de Ollama, lo que permite a los desarrolladores automatizar flujos de trabajo, manipular activos y controlar el Editor de Unity mediante programación sin depender de LLM basados en la nube.