local-only server
The server can only run on the client’s local machine because it depends on local resources.
Integrations
Enables communication between Unity and local Large Language Models (LLMs) running through Ollama, allowing developers to automate Unity workflows, manipulate assets, and control the Unity Editor programmatically without cloud-based LLMs.
Provides bidirectional communication with Unity for asset management, scene control, material editing, script integration, and editor automation functions like undo, redo, play, and build operations.
Unity MCP 与 Ollama 集成
Unity MCP(模型上下文协议)包,支持通过 Ollama 在 Unity 和本地大型语言模型 (LLM) 之间进行无缝通信。此包扩展了justinpbarnett/unity-mcp以与本地 LLM 配合使用,使开发者能够自动化工作流程、操作资源并以编程方式控制 Unity 编辑器,而无需依赖基于云的 LLM。
概述
Unity MCP 与 Ollama 集成提供了以下之间的双向通信通道:
- Unity(通过 C#)
- Python MCP 服务器
- 通过 Ollama 开设的本地法学硕士课程
这使得:
- 资产管理:以编程方式创建、导入和操作 Unity 资产
- 场景控制:管理场景、对象及其属性
- 材料编辑:修改材料及其属性
- 脚本集成:查看、创建和更新 Unity 脚本
- 编辑器自动化:控制 Unity 编辑器功能,如撤消、重做、播放和构建
全部由您自己的本地 LLM 提供支持,无需互联网连接或 API 密钥。
支持的型号
此实现专门配置为与以下 Ollama 模型配合使用:
- deepseek-r1:14b - 具有强大推理能力的 140 亿参数模型
- gemma3:12b - 谷歌的 120 亿参数模型,具有良好的通用能力
您可以在 Unity MCP 窗口中轻松地在这些模型之间切换。
安装(资产方法)
由于Unity的包管理器兼容性问题,我们建议使用Asset方法进行安装。
先决条件
- Unity 2020.3 LTS 或更高版本
- Python 3.10 或更高版本
- 您的系统上已安装Ollama
- 以下 LLM 模型引入了 Ollama:
ollama pull deepseek-r1:14b
ollama pull gemma3:12b
步骤 1:下载并安装编辑器脚本
- 下载或克隆此存储库:Copy
- 在 Unity 项目的 Assets 目录中创建一个文件夹:Copy
- 将
Editor
文件夹从克隆的存储库复制到您的 Unity 项目:Copy - 验证文件夹结构是否正确:Copy
- 让 Unity 导入并编译脚本
第 2 步:设置 Python 环境
- 为 Python 环境创建一个文件夹(在 Unity 项目之外):Copy
- 从克隆的存储库复制 Python 文件夹:Copy
- 创建并激活虚拟环境:Copy
- 安装依赖项:Copy
步骤3:配置Ollama
- 确保 Ollama 已安装并正在您的系统上运行
- 拉取支持的模型:Copy
- 启动 Ollama 服务器:Copy
将 Unity MCP 与 Ollama 结合使用
步骤 1:启动 Unity Bridge
- 打开你的 Unity 项目
- 导航至
Window > Unity MCP
以打开 MCP 窗口 - 点击Start Bridge按钮启动 Unity Bridge
第 2 步:启动 Python 服务器
- 打开命令提示符或终端
- 导航到您的 Python 环境:Copy
- 激活虚拟环境:Copy
- 导航到 Python 目录并启动服务器:Copy
步骤3:配置Ollama设置
- 在 Unity MCP 窗口中,找到Ollama 配置部分
- 验证或更新以下设置:
- 主机:localhost(默认)
- 端口:11434(默认)
- 型号:选择
deepseek-r1:14b
或gemma3:12b
- 温度:根据需要调整(0.0-1.0)
- 单击**“应用 Ollama 配置”**
步骤 4:使用聊天界面
- 单击 Unity MCP 窗口中的**“显示聊天界面”**按钮
- 在消息字段中输入您的指示
- 单击**“发送”**以处理您的请求
提示示例:
- “在位置 (0, 1, 0) 处创建一个红色立方体”
- “向场景中添加一个球体并应用蓝色材质”
- “列出当前场景中的所有对象”
- “编写一个简单的移动脚本并将其附加到立方体上”
连接状态指示器
Unity MCP 窗口提供每个组件的状态信息:
- Python 服务器状态:指示 Python 服务器是否正在运行
- 绿色:已连接
- 黄色:已连接但存在问题
- 红色:未连接
- Unity Bridge 状态:显示 Unity 套接字服务器是否正在运行
- 运行:Unity 正在监听连接
- 已停止:Unity 套接字服务器未处于活动状态
- Ollama 状态:显示与 Ollama 的连接状态
- 已连接:成功连接到Ollama服务器
- 未连接:无法连接到 Ollama
故障排除
常见问题
- Python 服务器的“未连接”状态
- 确保 Python 服务器正在运行(
python server.py
) - 检查 Python 控制台中的错误
- 验证 Unity Bridge 是否正在运行
- 确保 Python 服务器正在运行(
- 找不到 Unity MCP 菜单
- 确保编辑器脚本已正确导入到你的项目中
- 检查 Unity 控制台是否有任何错误
- 如果需要,重新启动 Unity
- Ollama连接问题
- 使用
ollama serve
验证 Ollama 是否正在运行 - 检查模型是否正确拉出
- 确保没有防火墙阻止端口 11434
- 使用
- MCP 命令执行失败
- 检查 Python 控制台以获取详细的错误消息
- 验证 Unity Bridge 是否正在运行
- 确保提示清晰明确
Python 环境的明确设置说明
如果您在设置 Python 环境时遇到问题:
- 安装 Python 3.10 或更新版本
- 从ollama.ai安装 Ollama
- 为 Python 环境创建专用目录:Copy
- 克隆或下载此存储库并复制 Python 文件夹:Copy
- 创建虚拟环境:Copy
- 激活虚拟环境:Copy
- 安装依赖项:Copy
- 运行服务器:Copy
性能考虑
本地 LLM 性能取决于您的硬件:
- 对于deepseek-r1:14b :建议最低 12GB VRAM
- 对于gemma3:12b :建议最低 10GB VRAM
- 仅 CPU 操作是可能的,但速度会明显变慢
贡献
欢迎贡献代码!欢迎提交 Pull Request 或创建 Issue。
执照
该项目已获得 MIT 许可。
致谢
- 基于justinpbarnett/unity-mcp
- 使用Ollama进行本地 LLM 集成
This server cannot be installed
通过 Ollama 将 Unity 与本地大型语言模型连接起来的服务器,使开发人员能够自动化工作流程、操作资产并以编程方式控制 Unity 编辑器,而无需依赖基于云的 LLM。