Skip to main content
Glama

Diseñe, pruebe y envíe flujos de trabajo de IA complejos desde un lienzo visual, justo donde escribe código.

Integre canalizaciones en cualquier aplicación de Python o TypeScript con unas pocas líneas de código, sin necesidad de pegamento de infraestructura.

Características

Característica

Descripción

Constructor de canalizaciones visual

Arrastre, conecte y configure nodos en VS Code: sin código repetitivo. La observabilidad en tiempo real rastrea el uso de tokens, llamadas a LLM, latencia y ejecución. Las canalizaciones son JSON portátil: controlables por versiones, compartibles y ejecutables en cualquier lugar.

Tiempo de ejecución de C++ de alto rendimiento

Multiproceso nativo diseñado específicamente para las demandas de rendimiento de las cargas de trabajo de IA y datos. Sin cuellos de botella, sin compromisos para la escala de producción.

Más de 50 nodos de canalización

13 proveedores de LLM, 8 bases de datos vectoriales, OCR, NER, anonimización de PII, estrategias de fragmentación, modelos de incrustación y más. Todos los nodos son extensibles con Python: cree y publique los suyos propios.

Flujos de trabajo multi-agente

Soporte integrado para CrewAI y LangChain. Encadene agentes, comparta memoria entre ejecuciones de canalización y gestione el razonamiento de varios pasos a escala.

Listo para agentes de codificación

RocketRide detecta automáticamente su agente de codificación: Claude, Cursor y más. Cree, modifique y despliegue canalizaciones mediante lenguaje natural.

SDK de TypeScript, Python y MCP

Integre canalizaciones en aplicaciones nativas, expóngalas como herramientas invocables para asistentes de IA o cree flujos de trabajo programáticos en su base de código existente.

Cero dolores de cabeza por dependencias

Entornos de Python, cadenas de herramientas de C++, Java/Tika y todas las dependencias de nodos gestionadas automáticamente. Clone, compile, ejecute: sin configuración manual.

Despliegue con un clic

Ejecute en Docker, localmente o en RocketRide Cloud (próximamente). Arquitectura lista para producción desde el primer día, no adaptada de una demostración.

Inicio rápido

  1. Instale la extensión para su IDE. Busque RocketRide en el mercado de extensiones:

    ¿No ve su IDE? Abra un problema · Descargar directamente

  2. Haga clic en la extensión RocketRide en su IDE

  3. Despliegue un servidor: se le pedirá cómo desea ejecutar el servidor. Elija la opción que se ajuste a su configuración:

    • Local (Recomendado) - Esto lleva el servidor directamente a su IDE sin ninguna configuración adicional.

    • Local (On-Premises) - Ejecute el servidor en su propio hardware para un control total y residencia de datos. Extraiga la imagen y despliéguela en Docker o clone este repositorio y compile desde el código fuente.

Construyendo su primera canalización

  1. Todas las canalizaciones se reconocen con el formato *.pipe. Cada canalización y configuración es un objeto JSON, pero la extensión en su IDE se renderizará dentro de nuestro lienzo de constructor visual.

  2. Todas las canalizaciones comienzan con un nodo de origen: webhook, chat o dropper. Para obtener información sobre el uso específico, ejemplos e inspiración sobre cómo construir canalizaciones, consulte nuestras guías y documentación.

  3. Conecte los carriles de entrada y los carriles de salida por tipo para cablear correctamente su canalización. Algunos nodos, como los agentes o los LLM, pueden invocarse como herramientas para que los utilice un nodo principal, como se muestra a continuación:

  1. Puede ejecutar una canalización desde el lienzo presionando el botón ▶ en el nodo de origen o directamente desde el Connection Manager.

  2. Despliegue sus canalizaciones en su propia infraestructura.

    • Docker - Descargue la imagen del servidor RocketRide y cree un contenedor. Requiere tener instalado Docker.

      docker pull ghcr.io/rocketride-org/rocketride-engine:latest
      docker create --name rocketride-engine -p 5565:5565 ghcr.io/rocketride-org/rocketride-engine:latest
    • Despliegue local - Descargue el tiempo de ejecución de su elección como un proceso independiente en la página 'Deploy' del Connection Manager

  3. Ejecute sus canalizaciones como procesos independientes o intégrelas en sus aplicaciones existentes de Python y TypeScript/JS utilizando nuestro SDK.

Observabilidad

Seleccionar las canalizaciones en ejecución permite un análisis en profundidad. Rastree árboles de llamadas, uso de tokens, consumo de memoria y más para optimizar sus canalizaciones antes de escalar y desplegar. Encuentre los modelos, agentes y herramientas que mejor se adapten a su tarea.

Colaboradores

RocketRide está construido por una comunidad creciente de colaboradores. Ya sea que haya corregido un error, agregado un nodo, mejorado la documentación o ayudado a alguien en Discord, gracias. Las nuevas contribuciones siempre son bienvenidas: consulte nuestra guía de contribución para comenzar.


Install Server
A
security – no known vulnerabilities
A
license - permissive license
C
quality - C tier

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/rocketride-org/rocketride-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server