RocketRide
在您编写代码的地方,通过可视化画布设计、测试和发布复杂的 AI 工作流。
只需几行代码即可将流水线集成到任何 Python 或 TypeScript 应用中,无需基础设施胶水代码。
功能特性
功能 | 描述 |
可视化流水线构建器 | 在 VS Code 中拖拽、连接和配置节点——无需样板代码。实时可观测性可跟踪 Token 使用量、LLM 调用、延迟和执行情况。流水线为可移植的 JSON——可版本控制、可共享,且可在任何地方运行。 |
高性能 C++ 运行时 | 原生多线程,专为 AI 和数据工作负载的吞吐量需求而构建。无瓶颈,生产规模下无需妥协。 |
50+ 流水线节点 | 13 个 LLM 提供商、8 个向量数据库、OCR、NER、PII 脱敏、分块策略、嵌入模型等。所有节点均支持 Python 扩展——构建并发布您自己的节点。 |
多智能体工作流 | 内置 CrewAI 和 LangChain 支持。串联智能体,在流水线运行间共享内存,并大规模管理多步推理。 |
编码智能体就绪 | RocketRide 可自动检测您的编码智能体——Claude、Cursor 等。通过自然语言构建、修改和部署流水线。 |
TypeScript、Python 和 MCP SDK | 将流水线集成到原生应用中,将其作为 AI 助手的可调用工具公开,或将程序化工作流构建到您现有的代码库中。 |
零依赖烦恼 | Python 环境、C++ 工具链、Java/Tika 以及所有节点依赖项均自动管理。克隆、构建、运行——无需手动设置。 |
一键部署 | 在 Docker、本地或 RocketRide Cloud(即将推出)上运行。从第一天起就具备生产就绪架构——而非从演示版改造而来。 |
快速入门
安装 IDE 扩展。在扩展市场中搜索 RocketRide:
在 IDE 中点击 RocketRide 扩展。
部署服务器——系统会提示您如何运行服务器。选择适合您设置的选项:
本地(推荐) - 这会将服务器直接拉取到您的 IDE 中,无需任何额外设置。
本地部署 (On-Premises) - 在您自己的硬件上运行服务器,以实现完全控制和数据驻留。拉取镜像并部署到 Docker,或克隆此仓库并从源码构建。
构建您的第一个流水线
所有流水线均以
*.pipe格式识别。每个流水线和配置都是一个 JSON 对象——但 IDE 中的扩展将在我们的可视化构建器画布中进行渲染。所有流水线都以源节点开始:webhook、chat 或 dropper。有关具体用法、示例以及如何构建流水线的灵感,请查看我们的指南和文档。
按类型连接输入通道和输出通道,以正确连接您的流水线。某些节点(如智能体或 LLM)可以作为工具被父节点调用,如下所示:
您可以通过按下源节点上的 ▶ 按钮或直接从
Connection Manager运行流水线。在您自己的基础设施上部署流水线。
Docker - 下载 RocketRide 服务器镜像并创建容器。需要安装 Docker。
docker pull ghcr.io/rocketride-org/rocketride-engine:latest docker create --name rocketride-engine -p 5565:5565 ghcr.io/rocketride-org/rocketride-engine:latest本地部署 - 在
Connection Manager的“部署”页面中,下载您选择的运行时作为独立进程。
将您的流水线作为独立进程运行,或利用我们的 SDK 将其集成到您现有的 Python 和 TypeScript/JS 应用程序中。
可观测性
选择正在运行的流水线可以进行深入分析。跟踪调用树、Token 使用量、内存消耗等,以便在扩展和部署之前优化您的流水线。找到最适合您任务的模型、智能体和工具。
贡献者
RocketRide 由一个不断壮大的贡献者社区构建。无论您是修复了错误、添加了节点、改进了文档,还是在 Discord 上帮助了他人,我们都深表感谢。欢迎新的贡献——查看我们的贡献指南以开始。
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/rocketride-org/rocketride-server'
If you have feedback or need assistance with the MCP directory API, please join our Discord server