Unity MCP 与 Ollama 集成
Unity MCP(模型上下文协议)包,支持通过 Ollama 在 Unity 和本地大型语言模型 (LLM) 之间进行无缝通信。此包扩展了justinpbarnett/unity-mcp以与本地 LLM 配合使用,使开发者能够自动化工作流程、操作资源并以编程方式控制 Unity 编辑器,而无需依赖基于云的 LLM。
概述
Unity MCP 与 Ollama 集成提供了以下之间的双向通信通道:
Unity(通过 C#)
Python MCP 服务器
通过 Ollama 开设的本地法学硕士课程
这使得:
资产管理:以编程方式创建、导入和操作 Unity 资产
场景控制:管理场景、对象及其属性
材料编辑:修改材料及其属性
脚本集成:查看、创建和更新 Unity 脚本
编辑器自动化:控制 Unity 编辑器功能,如撤消、重做、播放和构建
全部由您自己的本地 LLM 提供支持,无需互联网连接或 API 密钥。
支持的型号
此实现专门配置为与以下 Ollama 模型配合使用:
deepseek-r1:14b - 具有强大推理能力的 140 亿参数模型
gemma3:12b - 谷歌的 120 亿参数模型,具有良好的通用能力
您可以在 Unity MCP 窗口中轻松地在这些模型之间切换。
安装(资产方法)
由于Unity的包管理器兼容性问题,我们建议使用Asset方法进行安装。
先决条件
Unity 2020.3 LTS 或更高版本
Python 3.10 或更高版本
您的系统上已安装Ollama
以下 LLM 模型引入了 Ollama:
ollama pull deepseek-r1:14b
ollama pull gemma3:12b
步骤 1:下载并安装编辑器脚本
下载或克隆此存储库:
git clone https://github.com/ZundamonnoVRChatkaisetu/unity-mcp-ollama.git在 Unity 项目的 Assets 目录中创建一个文件夹:
Assets/UnityMCPOllama将
Editor
文件夹从克隆的存储库复制到您的 Unity 项目:# Copy the entire Editor folder [Repository]/Editor → Assets/UnityMCPOllama/Editor验证文件夹结构是否正确:
Assets/ UnityMCPOllama/ Editor/ MCPEditorWindow.cs UnityMCPBridge.cs让 Unity 导入并编译脚本
第 2 步:设置 Python 环境
为 Python 环境创建一个文件夹(在 Unity 项目之外):
mkdir PythonMCP cd PythonMCP从克隆的存储库复制 Python 文件夹:
cp -r [Repository]/Python .创建并激活虚拟环境:
# Create a virtual environment python -m venv venv # Activate the virtual environment # On Windows: venv\Scripts\activate # On macOS/Linux: source venv/bin/activate安装依赖项:
cd Python pip install -e .
步骤3:配置Ollama
确保 Ollama 已安装并正在您的系统上运行
拉取支持的模型:
ollama pull deepseek-r1:14b ollama pull gemma3:12b启动 Ollama 服务器:
ollama serve
将 Unity MCP 与 Ollama 结合使用
步骤 1:启动 Unity Bridge
打开你的 Unity 项目
导航至
Window > Unity MCP
以打开 MCP 窗口点击Start Bridge按钮启动 Unity Bridge
第 2 步:启动 Python 服务器
打开命令提示符或终端
导航到您的 Python 环境:
cd PythonMCP激活虚拟环境:
# On Windows: venv\Scripts\activate # On macOS/Linux: source venv/bin/activate导航到 Python 目录并启动服务器:
cd Python python server.py
步骤3:配置Ollama设置
在 Unity MCP 窗口中,找到Ollama 配置部分
验证或更新以下设置:
主机:localhost(默认)
端口:11434(默认)
型号:选择
deepseek-r1:14b
或gemma3:12b
温度:根据需要调整(0.0-1.0)
单击**“应用 Ollama 配置”**
步骤 4:使用聊天界面
单击 Unity MCP 窗口中的**“显示聊天界面”**按钮
在消息字段中输入您的指示
单击**“发送”**以处理您的请求
提示示例:
“在位置 (0, 1, 0) 处创建一个红色立方体”
“向场景中添加一个球体并应用蓝色材质”
“列出当前场景中的所有对象”
“编写一个简单的移动脚本并将其附加到立方体上”
连接状态指示器
Unity MCP 窗口提供每个组件的状态信息:
Python 服务器状态:指示 Python 服务器是否正在运行
绿色:已连接
黄色:已连接但存在问题
红色:未连接
Unity Bridge 状态:显示 Unity 套接字服务器是否正在运行
运行:Unity 正在监听连接
已停止:Unity 套接字服务器未处于活动状态
Ollama 状态:显示与 Ollama 的连接状态
已连接:成功连接到Ollama服务器
未连接:无法连接到 Ollama
故障排除
常见问题
Python 服务器的“未连接”状态
确保 Python 服务器正在运行(
python server.py
)检查 Python 控制台中的错误
验证 Unity Bridge 是否正在运行
找不到 Unity MCP 菜单
确保编辑器脚本已正确导入到你的项目中
检查 Unity 控制台是否有任何错误
如果需要,重新启动 Unity
Ollama连接问题
使用
ollama serve
验证 Ollama 是否正在运行检查模型是否正确拉出
确保没有防火墙阻止端口 11434
MCP 命令执行失败
检查 Python 控制台以获取详细的错误消息
验证 Unity Bridge 是否正在运行
确保提示清晰明确
Python 环境的明确设置说明
如果您在设置 Python 环境时遇到问题:
安装 Python 3.10 或更新版本
从ollama.ai安装 Ollama
为 Python 环境创建专用目录:
mkdir C:\PythonMCP cd C:\PythonMCP克隆或下载此存储库并复制 Python 文件夹:
git clone https://github.com/ZundamonnoVRChatkaisetu/unity-mcp-ollama.git copy unity-mcp-ollama\Python .创建虚拟环境:
python -m venv venv激活虚拟环境:
venv\Scripts\activate安装依赖项:
cd Python pip install -e .运行服务器:
python server.py
性能考虑
本地 LLM 性能取决于您的硬件:
对于deepseek-r1:14b :建议最低 12GB VRAM
对于gemma3:12b :建议最低 10GB VRAM
仅 CPU 操作是可能的,但速度会明显变慢
贡献
欢迎贡献代码!欢迎提交 Pull Request 或创建 Issue。
执照
该项目已获得 MIT 许可。
致谢
使用Ollama进行本地 LLM 集成
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
通过 Ollama 将 Unity 与本地大型语言模型连接起来的服务器,使开发人员能够自动化工作流程、操作资产并以编程方式控制 Unity 编辑器,而无需依赖基于云的 LLM。
Related MCP Servers
- -securityAlicense-qualityEnables seamless integration between Ollama's local LLM models and MCP-compatible applications, supporting model management and chat interactions.Last updated -70103AGPL 3.0
- -securityAlicense-qualityA bridge enabling seamless communication between Unity and Large Language Models via the Model Context Protocol, allowing developers to automate workflows, manipulate assets, and control the Unity Editor programmatically.Last updated -3,363MIT License
- -securityFlicense-qualityA server that enables seamless integration between local Ollama LLM instances and MCP-compatible applications, providing advanced task decomposition, evaluation, and workflow management capabilities.Last updated -6
- -securityAlicense-qualityA Model Context Protocol server that provides standardized interfaces for interacting with Ollama API, offering JSON responses, error handling, and intelligent guidance for LLM-based API calls.Last updated -MIT License