Integración de Unity MCP con Ollama
Un paquete MCP (Protocolo de Contexto de Modelo) de Unity que permite una comunicación fluida entre Unity y los Modelos de Lenguaje Grandes (LLM) locales a través de Ollama. Este paquete extiende justinpbarnett/unity-mcp para funcionar con LLM locales, lo que permite a los desarrolladores automatizar flujos de trabajo, manipular recursos y controlar el Editor de Unity mediante programación sin depender de LLM en la nube.
Descripción general
El MCP de Unity con integración de Ollama proporciona un canal de comunicación bidireccional entre:
Unity (a través de C#)
Un servidor MCP de Python
LLM locales que operan a través de Ollama
Esto permite:
Gestión de activos : cree, importe y manipule activos de Unity mediante programación
Control de escena : administre escenas, objetos y sus propiedades
Edición de materiales : modificar materiales y sus propiedades
Integración de scripts : ver, crear y actualizar scripts de Unity
Automatización del editor : controle las funciones del editor de Unity como deshacer, rehacer, reproducir y compilar
Todo impulsado por sus propios LLM locales, sin necesidad de una conexión a Internet o claves API.
Modelos compatibles
Esta implementación está configurada específicamente para funcionar con los siguientes modelos de Ollama:
deepseek-r1:14b : un modelo de 14 mil millones de parámetros con sólidas capacidades de razonamiento
gemma3:12b - El modelo de 12 mil millones de parámetros de Google con buenas capacidades generales
Puede cambiar fácilmente entre estos modelos en la ventana de Unity MCP.
Instalación (método de activos)
Debido a problemas de compatibilidad del administrador de paquetes de Unity, recomendamos utilizar el método de activos para la instalación.
Prerrequisitos
Unity 2020.3 LTS o más reciente
Python 3.10 o más reciente
Ollama instalado en su sistema
Los siguientes modelos LLM se incluyeron en Ollama:
ollama pull deepseek-r1:14b
ollama pull gemma3:12b
Paso 1: Descargue e instale los scripts del editor
Descargue o clone este repositorio:
git clone https://github.com/ZundamonnoVRChatkaisetu/unity-mcp-ollama.gitCrea una carpeta en el directorio Activos de tu proyecto de Unity:
Assets/UnityMCPOllamaCopie la carpeta
Editor
del repositorio clonado a su proyecto de Unity:# Copy the entire Editor folder [Repository]/Editor → Assets/UnityMCPOllama/EditorVerifique que la estructura de la carpeta sea correcta:
Assets/ UnityMCPOllama/ Editor/ MCPEditorWindow.cs UnityMCPBridge.csDeje que Unity importe y compile los scripts
Paso 2: Configurar el entorno de Python
Crea una carpeta para el entorno de Python (fuera de tu proyecto de Unity):
mkdir PythonMCP cd PythonMCPCopie la carpeta Python del repositorio clonado:
cp -r [Repository]/Python .Crear y activar un entorno virtual:
# Create a virtual environment python -m venv venv # Activate the virtual environment # On Windows: venv\Scripts\activate # On macOS/Linux: source venv/bin/activateInstalar dependencias:
cd Python pip install -e .
Paso 3: Configurar Ollama
Asegúrese de que Ollama esté instalado y ejecutándose en su sistema
Extraiga los modelos compatibles:
ollama pull deepseek-r1:14b ollama pull gemma3:12bIniciar el servidor Ollama:
ollama serve
Uso de Unity MCP con Ollama
Paso 1: Iniciar Unity Bridge
Abra su proyecto de Unity
Vaya a
Window > Unity MCP
para abrir la ventana MCPHaga clic en el botón Iniciar puente para iniciar el puente de Unity
Paso 2: Iniciar el servidor Python
Abra un símbolo del sistema o una terminal
Navegue a su entorno de Python:
cd PythonMCPActivar el entorno virtual:
# On Windows: venv\Scripts\activate # On macOS/Linux: source venv/bin/activateNavegue al directorio de Python e inicie el servidor:
cd Python python server.py
Paso 3: Configurar los ajustes de Ollama
En la ventana de Unity MCP, ubique la sección Configuración de Ollama
Verifique o actualice las siguientes configuraciones:
Host : localhost (predeterminado)
Puerto : 11434 (predeterminado)
Modelo : Seleccione
deepseek-r1:14b
ogemma3:12b
Temperatura : ajuste según sea necesario (0,0-1,0)
Haga clic en Aplicar configuración de Ollama
Paso 4: Utilizar la interfaz de chat
Haga clic en el botón Mostrar interfaz de chat en la ventana de Unity MCP
Escriba sus instrucciones en el campo de mensaje.
Haga clic en Enviar para procesar su solicitud
Ejemplos de indicaciones:
"Crea un cubo rojo en la posición (0, 1, 0)"
Añade una esfera a la escena y aplica un material azul.
"Enumerar todos los objetos en la escena actual"
"Escribe un guión de movimiento simple y adjúntalo al cubo"
Indicadores de estado de la conexión
La ventana de Unity MCP proporciona información de estado para cada componente:
Estado del servidor Python : indica si el servidor Python se está ejecutando
Verde: Conectado
Amarillo: Conectado pero con problemas
Rojo: No conectado
Estado del puente de Unity : muestra si el servidor de sockets de Unity se está ejecutando
Corriendo: Unity está escuchando conexiones
Detenido: el servidor de sockets de Unity no está activo
Estado de Ollama : muestra el estado de la conexión a Ollama
Conectado: Se conectó exitosamente al servidor Ollama
No conectado: No se puede conectar a Ollama
Solución de problemas
Problemas comunes
Estado "No conectado" para el servidor Python
Asegúrese de que el servidor Python esté en ejecución (
python server.py
)Comprobar errores en la consola de Python
Verifique que Unity Bridge esté ejecutándose
No se puede encontrar el menú MCP de Unity
Asegúrese de que los scripts del Editor se importen correctamente en su proyecto
Comprueba si hay errores en la consola de Unity
Reinicie Unity si es necesario
Problemas de conexión de Ollama
Verifique que Ollama se esté ejecutando con
ollama serve
Compruebe que los modelos se extraen correctamente
Asegúrese de que ningún firewall esté bloqueando el puerto 11434
La ejecución del comando MCP falla
Consulte la consola de Python para ver mensajes de error detallados
Verifique que Unity Bridge se esté ejecutando
Asegúrese de que la instrucción sea clara y específica
Instrucciones de configuración explícitas para el entorno Python
Si encuentra problemas al configurar el entorno de Python:
Instalar Python 3.10 o más reciente
Instalar Ollama desde ollama.ai
Cree un directorio dedicado para el entorno de Python:
mkdir C:\PythonMCP cd C:\PythonMCPClone o descargue este repositorio y copie la carpeta Python:
git clone https://github.com/ZundamonnoVRChatkaisetu/unity-mcp-ollama.git copy unity-mcp-ollama\Python .Crear un entorno virtual:
python -m venv venvActivar el entorno virtual:
venv\Scripts\activateInstalar dependencias:
cd Python pip install -e .Ejecutar el servidor:
python server.py
Consideraciones de rendimiento
El rendimiento de LLM local depende de su hardware:
Para deepseek-r1:14b : Se recomienda un mínimo de 12 GB de VRAM
Para gemma3:12b : Se recomienda un mínimo de 10 GB de VRAM
Es posible operar solo con CPU, pero será significativamente más lento
Contribuyendo
¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios o abrir un problema.
Licencia
Este proyecto está licenciado bajo la licencia MIT.
Expresiones de gratitud
Basado en justinpbarnett/unity-mcp
Utiliza Ollama para la integración local de LLM
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
Un servidor que conecta Unity con grandes modelos de lenguaje locales a través de Ollama, lo que permite a los desarrolladores automatizar flujos de trabajo, manipular activos y controlar el Editor de Unity mediante programación sin depender de LLM basados en la nube.
Related MCP Servers
- -securityAlicense-qualityEnables seamless integration between Ollama's local LLM models and MCP-compatible applications, supporting model management and chat interactions.Last updated -70103AGPL 3.0
- -securityAlicense-qualityA bridge enabling seamless communication between Unity and Large Language Models via the Model Context Protocol, allowing developers to automate workflows, manipulate assets, and control the Unity Editor programmatically.Last updated -3,363MIT License
- -securityFlicense-qualityA server that enables seamless integration between local Ollama LLM instances and MCP-compatible applications, providing advanced task decomposition, evaluation, and workflow management capabilities.Last updated -6
- -securityAlicense-qualityA Model Context Protocol server that provides standardized interfaces for interacting with Ollama API, offering JSON responses, error handling, and intelligent guidance for LLM-based API calls.Last updated -MIT License