Skip to main content
Glama

코드를 작성하는 바로 그곳에서 시각적 캔버스를 통해 복잡한 AI 워크플로우를 설계, 테스트 및 배포하세요.

인프라 연결 작업 없이 몇 줄의 코드로 Python 또는 TypeScript 앱에 파이프라인을 삽입하세요.

기능

기능

설명

시각적 파이프라인 빌더

VS Code에서 노드를 드래그하고 연결하여 구성하세요. 보일러플레이트가 필요 없습니다. 실시간 관측성을 통해 토큰 사용량, LLM 호출, 지연 시간 및 실행 상태를 추적합니다. 파이프라인은 이식 가능한 JSON으로, 버전 관리, 공유 및 어디서나 실행이 가능합니다.

고성능 C++ 런타임

AI 및 데이터 워크로드의 처리량 요구 사항을 위해 특별히 구축된 네이티브 멀티스레딩입니다. 병목 현상 없이 프로덕션 규모에서도 타협하지 않습니다.

50개 이상의 파이프라인 노드

13개의 LLM 공급자, 8개의 벡터 데이터베이스, OCR, NER, PII 익명화, 청킹 전략, 임베딩 모델 등을 지원합니다. 모든 노드는 Python으로 확장 가능하며, 직접 구축하고 게시할 수 있습니다.

멀티 에이전트 워크플로우

CrewAI 및 LangChain을 기본 지원합니다. 에이전트를 연결하고, 파이프라인 실행 간에 메모리를 공유하며, 대규모 다단계 추론을 관리하세요.

코딩 에이전트 준비 완료

RocketRide는 Claude, Cursor 등 사용 중인 코딩 에이전트를 자동으로 감지합니다. 자연어를 통해 파이프라인을 구축, 수정 및 배포하세요.

TypeScript, Python 및 MCP SDK

파이프라인을 네이티브 앱에 통합하거나, AI 어시스턴트를 위한 호출 가능한 도구로 노출하거나, 기존 코드베이스에 프로그래밍 방식의 워크플로우를 구축하세요.

의존성 문제 해결

Python 환경, C++ 툴체인, Java/Tika 및 모든 노드 의존성이 자동으로 관리됩니다. 복제, 빌드, 실행만 하면 되며 수동 설정이 필요 없습니다.

원클릭 배포

Docker, 온프레미스 또는 RocketRide Cloud(출시 예정)에서 실행하세요. 데모용이 아닌, 첫날부터 프로덕션 준비가 완료된 아키텍처입니다.

빠른 시작

  1. IDE용 확장을 설치하세요. 확장 마켓플레이스에서 RocketRide를 검색하세요:

    IDE가 보이지 않나요? 이슈를 열어주세요 · 직접 다운로드

  2. IDE에서 RocketRide 확장을 클릭하세요.

  3. 서버를 배포하세요. 서버 실행 방법에 대한 안내가 표시됩니다. 설정에 맞는 옵션을 선택하세요:

    • 로컬(권장) - 추가 설정 없이 IDE로 서버를 직접 가져옵니다.

    • 온프레미스 - 완전한 제어와 데이터 상주를 위해 자체 하드웨어에서 서버를 실행하세요. 이미지를 가져와 Docker에 배포하거나, 이 저장소를 복제하여 소스에서 빌드하세요.

첫 번째 파이프라인 구축

  1. 모든 파이프라인은 *.pipe 형식으로 인식됩니다. 각 파이프라인과 구성은 JSON 객체이지만, IDE의 확장이 시각적 빌더 캔버스 내에서 렌더링합니다.

  2. 모든 파이프라인은 webhook, chat 또는 dropper와 같은 소스 노드로 시작합니다. 특정 사용법, 예제 및 파이프라인 구축에 대한 영감은 가이드 및 문서를 확인하세요.

  3. 파이프라인을 올바르게 연결하려면 유형별로 입력 레인과 출력 레인을 연결하세요. 에이전트나 LLM과 같은 일부 노드는 아래와 같이 상위 노드에서 사용할 도구로 호출될 수 있습니다:

  1. 소스 노드의 ▶ 버튼을 누르거나 Connection Manager에서 직접 캔버스를 통해 파이프라인을 실행할 수 있습니다.

  2. 자체 인프라에 파이프라인을 배포하세요.

    • Docker - RocketRide 서버 이미지를 다운로드하고 컨테이너를 생성하세요. Docker가 설치되어 있어야 합니다.

      docker pull ghcr.io/rocketride-org/rocketride-engine:latest
      docker create --name rocketride-engine -p 5565:5565 ghcr.io/rocketride-org/rocketride-engine:latest
    • 로컬 배포 - Connection Manager의 'Deploy' 페이지에서 원하는 런타임을 독립형 프로세스로 다운로드하세요.

  3. 파이프라인을 독립형 프로세스로 실행하거나 SDK를 활용하여 기존 PythonTypeScript/JS 애플리케이션에 통합하세요.

관측성

실행 중인 파이프라인을 선택하면 심층적인 분석이 가능합니다. 호출 트리, 토큰 사용량, 메모리 소비 등을 추적하여 확장 및 배포 전에 파이프라인을 최적화하세요. 작업에 가장 적합한 모델, 에이전트 및 도구를 찾으세요.

기여자

RocketRide은 성장하는 기여자 커뮤니티에 의해 구축됩니다. 버그를 수정했든, 노드를 추가했든, 문서를 개선했든, Discord에서 누군가를 도왔든, 모두 감사합니다. 새로운 기여는 언제나 환영합니다. 시작하려면 기여 가이드를 확인하세요.


Install Server
A
security – no known vulnerabilities
A
license - permissive license
C
quality - C tier

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/rocketride-org/rocketride-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server