mcp2tcp: 连接物理世界与AI大模型的桥梁
English | 简体中文
系统架构
工作流程
项目愿景
mcp2tcp 将TCP设备接入AI大模型的项目,它通过 Model Context Protocol (MCP) 将物理世界与 AI 大模型无缝连接。最终实现:
- 用自然语言控制你的硬件设备
- AI 实时响应并调整物理参数
- 让你的设备具备理解和执行复杂指令的能力
主要特性
- 智能TCP通信
- 自动检测和配置TCP设备 用户也可指定TCP号
- 支持多种波特率(默认 115200)
- 实时状态监控和错误处理
- MCP 协议集成
- 完整支持 Model Context Protocol
- 支持资源管理和工具调用
- 灵活的提示词系统
支持的客户端
mcp2tcp 支持所有实现了 MCP 协议的客户端,包括:
客户端 | 特性支持 | 说明 |
---|---|---|
Claude Desktop | 完整支持 | 推荐使用,支持所有 MCP 功能 |
Continue | 完整支持 | 优秀的开发工具集成 |
Cline | 资源+工具 | 支持多种 AI 提供商 |
Zed | 基础支持 | 支持提示词命令 |
Sourcegraph Cody | 资源支持 | 通过 OpenCTX 集成 |
Firebase Genkit | 部分支持 | 支持资源列表和工具 |
支持的 AI 模型
得益于灵活的客户端支持,mcp2tcp 可以与多种 AI 模型协同工作:
云端模型
- OpenAI (GPT-4, GPT-3.5)
- Anthropic Claude
- Google Gemini
- AWS Bedrock
- Azure OpenAI
- Google Cloud Vertex AI
本地模型
- LM Studio 支持的所有模型
- Ollama 支持的所有模型
- 任何兼容 OpenAI API 的模型
准备
Python3.11 或更高版本 Claude Desktop 或 Cline
快速开始
1. 安装
Windows用户
下载 install.py
macOS用户
Ubuntu/Raspberry Pi用户
安装脚本会自动完成以下操作:
- ✅ 检查系统环境
- ✅ 安装必要的依赖
- ✅ 创建默认配置文件
- ✅ 配置Claude桌面版(如果已安装)
- ✅ 检查TCP设备
手动分步安装依赖
主要依赖uv工具,所以当python和uv以及Claude或Cline安装好后就可以了。
基本配置
在你的 MCP 客户端(如 Claude Desktop 或 Cline)配置文件中添加以下内容: 注意:如果使用的自动安装那么会自动配置Calude Desktop无需此步。 使用默认配置文件:
注意:修改配置后需要重启Cline或者Claude客户端软件
配置TCP和命令: 注意下面的配置默认为COM11 需要根据实际进行修改
配置说明
配置文件位置
配置文件(config.yaml
)可以放在位置:
用户主目录(推荐个人使用)
- 适用场景:个人配置
- 需要创建
.mcp2tcp
目录:
TCP配置 命令配置进阶
在 config.yaml
中添加自定义命令:
使用真实TCP
指定配置文件: 比如指定加载Pico配置文件:Pico_config.yaml
为了能使用多个TCP,我们可以新增多个mcp2tcp的服务 指定不同的配置文件名即可。 如果要接入多个设备,如有要连接第二个设备: 指定加载Pico2配置文件:Pico2_config.yaml
测试
在开始使用之前,建议先进行测试以确保一切正常工作。
1. 启动测试服务器
首先,启动测试目录下的 TCP 服务器来模拟硬件设备:
服务器将在本地启动,监听端口 9999。你会看到类似这样的输出:
启动客户端Claude 桌面版或Cline
从源码快速开始
- 从源码安装
如果使用真实TCP
MCP客户端配置
在使用支持MCP协议的客户端(如Claude Desktop或Cline)时,需要在客户端的配置文件中添加以下内容: 直接自动安装的配置方式 源码开发的配置方式
使用默认演示参数:
指定参数文件名
配置文件位置
配置文件(config.yaml
)可以放在不同位置,程序会按以下顺序查找:
1. 当前工作目录(适合开发测试)
- 路径:
./config.yaml
- 示例:如果你在
C:\Projects
运行程序,它会查找C:\Projects\config.yaml
- 适用场景:开发和测试
- 不需要特殊权限
2. 用户主目录(推荐个人使用)
- 适用场景:个人配置
- 需要创建
.mcp2tcp
目录:
3. 系统级配置(适合多用户环境)
- 适用场景:多用户共享配置
- 创建目录并设置权限:
程序会按照上述顺序查找配置文件,使用找到的第一个有效配置文件。根据你的需求选择合适的位置:
- 开发测试:使用当前目录
- 个人使用:建议使用用户主目录(推荐)
- 多用户环境:使用系统级配置(ProgramData或/etc)
- 运行服务器:
文档
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
A bridge connecting physical hardware with AI large language models through the Model Context Protocol (MCP), enabling natural language control of TCP devices.
Related MCP Servers
- AsecurityAlicenseAqualityA bridge that connects physical hardware devices with AI large language models via serial communication, allowing users to control hardware using natural language commands.Last updated -35PythonMIT License
- -securityFlicense-qualityA demonstration implementation of the Model Context Protocol server that facilitates communication between AI models and external tools while maintaining context awareness.Last updated -Python
- -securityFlicense-qualityA Model Context Protocol server that bridges AI assistants like Claude with Wordware's specialized agent capabilities, allowing dynamic loading and access to any Wordware flow through a standardized interface.Last updated -Python
- AsecurityAlicenseAqualityA Model Context Protocol (MCP) server that enables AI assistants to control and interact with Android devices, allowing for device management, app debugging, system analysis, and UI automation through natural language commands.Last updated -29143PythonApache 2.0