Unity MCP with Ollama Integration

local-only server

The server can only run on the client’s local machine because it depends on local resources.

Integrations

  • Enables communication between Unity and local Large Language Models (LLMs) running through Ollama, allowing developers to automate Unity workflows, manipulate assets, and control the Unity Editor programmatically without cloud-based LLMs.

  • Provides bidirectional communication with Unity for asset management, scene control, material editing, script integration, and editor automation functions like undo, redo, play, and build operations.

Unity MCP 与 Ollama 集成

Unity MCP(模型上下文协议)包,支持通过 Ollama 在 Unity 和本地大型语言模型 (LLM) 之间进行无缝通信。此包扩展了justinpbarnett/unity-mcp以与本地 LLM 配合使用,使开发者能够自动化工作流程、操作资源并以编程方式控制 Unity 编辑器,而无需依赖基于云的 LLM。

概述

Unity MCP 与 Ollama 集成提供了以下之间的双向通信通道:

  1. Unity(通过 C#)
  2. Python MCP 服务器
  3. 通过 Ollama 开设的本地法学硕士课程

这使得:

  • 资产管理:以编程方式创建、导入和操作 Unity 资产
  • 场景控制:管理场景、对象及其属性
  • 材料编辑:修改材料及其属性
  • 脚本集成:查看、创建和更新 Unity 脚本
  • 编辑器自动化:控制 Unity 编辑器功能,如撤消、重做、播放和构建

全部由您自己的本地 LLM 提供支持,无需互联网连接或 API 密钥。

支持的型号

此实现专门配置为与以下 Ollama 模型配合使用:

  • deepseek-r1:14b - 具有强大推理能力的 140 亿参数模型
  • gemma3:12b - 谷歌的 120 亿参数模型,具有良好的通用能力

您可以在 Unity MCP 窗口中轻松地在这些模型之间切换。

安装(资产方法)

由于Unity的包管理器兼容性问题,我们建议使用Asset方法进行安装。

先决条件

  • Unity 2020.3 LTS 或更高版本
  • Python 3.10 或更高版本
  • 您的系统上已安装Ollama
  • 以下 LLM 模型引入了 Ollama:
    • ollama pull deepseek-r1:14b
    • ollama pull gemma3:12b

步骤 1:下载并安装编辑器脚本

  1. 下载或克隆此存储库:
    git clone https://github.com/ZundamonnoVRChatkaisetu/unity-mcp-ollama.git
  2. 在 Unity 项目的 Assets 目录中创建一个文件夹:
    Assets/UnityMCPOllama
  3. Editor文件夹从克隆的存储库复制到您的 Unity 项目:
    # Copy the entire Editor folder [Repository]/Editor → Assets/UnityMCPOllama/Editor
  4. 验证文件夹结构是否正确:
    Assets/ UnityMCPOllama/ Editor/ MCPEditorWindow.cs UnityMCPBridge.cs
  5. 让 Unity 导入并编译脚本

第 2 步:设置 Python 环境

  1. 为 Python 环境创建一个文件夹(在 Unity 项目之外):
    mkdir PythonMCP cd PythonMCP
  2. 从克隆的存储库复制 Python 文件夹:
    cp -r [Repository]/Python .
  3. 创建并激活虚拟环境:
    # Create a virtual environment python -m venv venv # Activate the virtual environment # On Windows: venv\Scripts\activate # On macOS/Linux: source venv/bin/activate
  4. 安装依赖项:
    cd Python pip install -e .

步骤3:配置Ollama

  1. 确保 Ollama 已安装并正在您的系统上运行
  2. 拉取支持的模型:
    ollama pull deepseek-r1:14b ollama pull gemma3:12b
  3. 启动 Ollama 服务器:
    ollama serve

将 Unity MCP 与 Ollama 结合使用

步骤 1:启动 Unity Bridge

  1. 打开你的 Unity 项目
  2. 导航至Window > Unity MCP以打开 MCP 窗口
  3. 点击Start Bridge按钮启动 Unity Bridge

第 2 步:启动 Python 服务器

  1. 打开命令提示符或终端
  2. 导航到您的 Python 环境:
    cd PythonMCP
  3. 激活虚拟环境:
    # On Windows: venv\Scripts\activate # On macOS/Linux: source venv/bin/activate
  4. 导航到 Python 目录并启动服务器:
    cd Python python server.py

步骤3:配置Ollama设置

  1. 在 Unity MCP 窗口中,找到Ollama 配置部分
  2. 验证或更新以下设置:
    • 主机:localhost(默认)
    • 端口:11434(默认)
    • 型号:选择deepseek-r1:14bgemma3:12b
    • 温度:根据需要调整(0.0-1.0)
  3. 单击**“应用 Ollama 配置”**

步骤 4:使用聊天界面

  1. 单击 Unity MCP 窗口中的**“显示聊天界面”**按钮
  2. 在消息字段中输入您的指示
  3. 单击**“发送”**以处理您的请求

提示示例:

  • “在位置 (0, 1, 0) 处创建一个红色立方体”
  • “向场景中添加一个球体并应用蓝色材质”
  • “列出当前场景中的所有对象”
  • “编写一个简单的移动脚本并将其附加到立方体上”

连接状态指示器

Unity MCP 窗口提供每个组件的状态信息:

  • Python 服务器状态:指示 Python 服务器是否正在运行
    • 绿色:已连接
    • 黄色:已连接但存在问题
    • 红色:未连接
  • Unity Bridge 状态:显示 Unity 套接字服务器是否正在运行
    • 运行:Unity 正在监听连接
    • 已停止:Unity 套接字服务器未处于活动状态
  • Ollama 状态:显示与 Ollama 的连接状态
    • 已连接:成功连接到Ollama服务器
    • 未连接:无法连接到 Ollama

故障排除

常见问题

  1. Python 服务器的“未连接”状态
    • 确保 Python 服务器正在运行( python server.py
    • 检查 Python 控制台中的错误
    • 验证 Unity Bridge 是否正在运行
  2. 找不到 Unity MCP 菜单
    • 确保编辑器脚本已正确导入到你的项目中
    • 检查 Unity 控制台是否有任何错误
    • 如果需要,重新启动 Unity
  3. Ollama连接问题
    • 使用ollama serve验证 Ollama 是否正在运行
    • 检查模型是否正确拉出
    • 确保没有防火墙阻止端口 11434
  4. MCP 命令执行失败
    • 检查 Python 控制台以获取详细的错误消息
    • 验证 Unity Bridge 是否正在运行
    • 确保提示清晰明确

Python 环境的明确设置说明

如果您在设置 Python 环境时遇到问题:

  1. 安装 Python 3.10 或更新版本
  2. ollama.ai安装 Ollama
  3. 为 Python 环境创建专用目录:
    mkdir C:\PythonMCP cd C:\PythonMCP
  4. 克隆或下载此存储库并复制 Python 文件夹:
    git clone https://github.com/ZundamonnoVRChatkaisetu/unity-mcp-ollama.git copy unity-mcp-ollama\Python .
  5. 创建虚拟环境:
    python -m venv venv
  6. 激活虚拟环境:
    venv\Scripts\activate
  7. 安装依赖项:
    cd Python pip install -e .
  8. 运行服务器:
    python server.py

性能考虑

本地 LLM 性能取决于您的硬件:

  • 对于deepseek-r1:14b :建议最低 12GB VRAM
  • 对于gemma3:12b :建议最低 10GB VRAM
  • 仅 CPU 操作是可能的,但速度会明显变慢

贡献

欢迎贡献代码!欢迎提交 Pull Request 或创建 Issue。

执照

该项目已获得 MIT 许可。

致谢

ID: 5bav8wr998