Unity MCP 与 Ollama 集成
Unity MCP(模型上下文协议)包,支持通过 Ollama 在 Unity 和本地大型语言模型 (LLM) 之间进行无缝通信。此包扩展了justinpbarnett/unity-mcp以与本地 LLM 配合使用,使开发者能够自动化工作流程、操作资源并以编程方式控制 Unity 编辑器,而无需依赖基于云的 LLM。
概述
Unity MCP 与 Ollama 集成提供了以下之间的双向通信通道:
- Unity(通过 C#)
- Python MCP 服务器
- 通过 Ollama 开设的本地法学硕士课程
这使得:
- 资产管理:以编程方式创建、导入和操作 Unity 资产
- 场景控制:管理场景、对象及其属性
- 材料编辑:修改材料及其属性
- 脚本集成:查看、创建和更新 Unity 脚本
- 编辑器自动化:控制 Unity 编辑器功能,如撤消、重做、播放和构建
全部由您自己的本地 LLM 提供支持,无需互联网连接或 API 密钥。
支持的型号
此实现专门配置为与以下 Ollama 模型配合使用:
- deepseek-r1:14b - 具有强大推理能力的 140 亿参数模型
- gemma3:12b - 谷歌的 120 亿参数模型,具有良好的通用能力
您可以在 Unity MCP 窗口中轻松地在这些模型之间切换。
安装(资产方法)
由于Unity的包管理器兼容性问题,我们建议使用Asset方法进行安装。
先决条件
- Unity 2020.3 LTS 或更高版本
- Python 3.10 或更高版本
- 您的系统上已安装Ollama
- 以下 LLM 模型引入了 Ollama:
ollama pull deepseek-r1:14b
ollama pull gemma3:12b
步骤 1:下载并安装编辑器脚本
- 下载或克隆此存储库:
- 在 Unity 项目的 Assets 目录中创建一个文件夹:
- 将
Editor
文件夹从克隆的存储库复制到您的 Unity 项目: - 验证文件夹结构是否正确:
- 让 Unity 导入并编译脚本
第 2 步:设置 Python 环境
- 为 Python 环境创建一个文件夹(在 Unity 项目之外):
- 从克隆的存储库复制 Python 文件夹:
- 创建并激活虚拟环境:
- 安装依赖项:
步骤3:配置Ollama
- 确保 Ollama 已安装并正在您的系统上运行
- 拉取支持的模型:
- 启动 Ollama 服务器:
将 Unity MCP 与 Ollama 结合使用
步骤 1:启动 Unity Bridge
- 打开你的 Unity 项目
- 导航至
Window > Unity MCP
以打开 MCP 窗口 - 点击Start Bridge按钮启动 Unity Bridge
第 2 步:启动 Python 服务器
- 打开命令提示符或终端
- 导航到您的 Python 环境:
- 激活虚拟环境:
- 导航到 Python 目录并启动服务器:
步骤3:配置Ollama设置
- 在 Unity MCP 窗口中,找到Ollama 配置部分
- 验证或更新以下设置:
- 主机:localhost(默认)
- 端口:11434(默认)
- 型号:选择
deepseek-r1:14b
或gemma3:12b
- 温度:根据需要调整(0.0-1.0)
- 单击**“应用 Ollama 配置”**
步骤 4:使用聊天界面
- 单击 Unity MCP 窗口中的**“显示聊天界面”**按钮
- 在消息字段中输入您的指示
- 单击**“发送”**以处理您的请求
提示示例:
- “在位置 (0, 1, 0) 处创建一个红色立方体”
- “向场景中添加一个球体并应用蓝色材质”
- “列出当前场景中的所有对象”
- “编写一个简单的移动脚本并将其附加到立方体上”
连接状态指示器
Unity MCP 窗口提供每个组件的状态信息:
- Python 服务器状态:指示 Python 服务器是否正在运行
- 绿色:已连接
- 黄色:已连接但存在问题
- 红色:未连接
- Unity Bridge 状态:显示 Unity 套接字服务器是否正在运行
- 运行:Unity 正在监听连接
- 已停止:Unity 套接字服务器未处于活动状态
- Ollama 状态:显示与 Ollama 的连接状态
- 已连接:成功连接到Ollama服务器
- 未连接:无法连接到 Ollama
故障排除
常见问题
- Python 服务器的“未连接”状态
- 确保 Python 服务器正在运行(
python server.py
) - 检查 Python 控制台中的错误
- 验证 Unity Bridge 是否正在运行
- 确保 Python 服务器正在运行(
- 找不到 Unity MCP 菜单
- 确保编辑器脚本已正确导入到你的项目中
- 检查 Unity 控制台是否有任何错误
- 如果需要,重新启动 Unity
- Ollama连接问题
- 使用
ollama serve
验证 Ollama 是否正在运行 - 检查模型是否正确拉出
- 确保没有防火墙阻止端口 11434
- 使用
- MCP 命令执行失败
- 检查 Python 控制台以获取详细的错误消息
- 验证 Unity Bridge 是否正在运行
- 确保提示清晰明确
Python 环境的明确设置说明
如果您在设置 Python 环境时遇到问题:
- 安装 Python 3.10 或更新版本
- 从ollama.ai安装 Ollama
- 为 Python 环境创建专用目录:
- 克隆或下载此存储库并复制 Python 文件夹:
- 创建虚拟环境:
- 激活虚拟环境:
- 安装依赖项:
- 运行服务器:
性能考虑
本地 LLM 性能取决于您的硬件:
- 对于deepseek-r1:14b :建议最低 12GB VRAM
- 对于gemma3:12b :建议最低 10GB VRAM
- 仅 CPU 操作是可能的,但速度会明显变慢
贡献
欢迎贡献代码!欢迎提交 Pull Request 或创建 Issue。
执照
该项目已获得 MIT 许可。
致谢
- 基于justinpbarnett/unity-mcp
- 使用Ollama进行本地 LLM 集成
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
通过 Ollama 将 Unity 与本地大型语言模型连接起来的服务器,使开发人员能够自动化工作流程、操作资产并以编程方式控制 Unity 编辑器,而无需依赖基于云的 LLM。
Related MCP Servers
- -securityAlicense-qualityA bridge enabling seamless communication between Unity and Large Language Models via the Model Context Protocol, allowing developers to automate workflows, manipulate assets, and control the Unity Editor programmatically.Last updated -1,449MIT License
- -securityAlicense-qualityA server that enables AI assistants to understand and interact with Unity projects in real-time, providing access to scene hierarchy, project settings, and the ability to execute code directly in the Unity Editor.Last updated -40MIT License
- -securityAlicense-qualityA Model Context Protocol server that provides access to Unity Catalog Functions, allowing AI assistants to list, get, create, and delete functions within Unity Catalog directly through a standardized interface.Last updated -8PythonMIT License
- -securityFlicense-qualityA Model Context Protocol server for Unity game development that enables users to manage projects, edit scenes, create prefabs, and generate scripts through natural language integration with Smithery.ai.Last updated -TypeScript