Skip to main content
Glama

複雑なAIワークフローを、コードを書く場所でそのまま視覚的なキャンバスから設計、テスト、出荷できます。

数行のコードでPythonやTypeScriptのアプリにパイプラインを組み込めます。インフラの調整は不要です。

機能

機能

説明

ビジュアルパイプラインビルダー

VS Codeでノードをドラッグ、接続、設定 — ボイラープレートは不要。トークン使用量、LLM呼び出し、レイテンシ、実行状況をリアルタイムで監視。パイプラインはポータブルなJSON形式で、バージョン管理、共有、どこでも実行が可能。

高性能C++ランタイム

AIおよびデータワークロードのスループット要求に合わせて構築されたネイティブマルチスレッド。ボトルネックなし、本番環境のスケールでも妥協なし。

50以上のパイプラインノード

13のLLMプロバイダー、8つのベクトルデータベース、OCR、NER、PII匿名化、チャンク戦略、埋め込みモデルなど。すべてのノードはPythonで拡張可能 — 独自ノードを作成して公開できます。

マルチエージェントワークフロー

CrewAIとLangChainを組み込みサポート。エージェントをチェーンし、パイプライン実行間でメモリを共有し、マルチステップの推論を大規模に管理。

コーディングエージェント対応

RocketRideはClaudeやCursorなどのコーディングエージェントを自動検出。自然言語を通じてパイプラインの構築、変更、デプロイが可能。

TypeScript、Python & MCP SDK

パイプラインをネイティブアプリに統合したり、AIアシスタント用の呼び出し可能なツールとして公開したり、既存のコードベースにプログラム可能なワークフローを構築したりできます。

依存関係の悩みゼロ

Python環境、C++ツールチェーン、Java/Tika、およびすべてのノードの依存関係を自動管理。クローンしてビルド、実行するだけ — 手動設定は不要。

ワンクリックデプロイ

Docker、オンプレミス、またはRocketRide Cloud(近日公開)で実行。デモからの改造ではなく、初日から本番環境に対応したアーキテクチャ。

クイックスタート

  1. IDE用の拡張機能をインストールします。拡張機能マーケットプレイスで「RocketRide」を検索してください:

    IDEが見つかりませんか?Issueを開いてください · 直接ダウンロード

  2. IDEでRocketRide拡張機能をクリックします。

  3. サーバーをデプロイします。サーバーの実行方法についてプロンプトが表示されます。セットアップに適したオプションを選択してください:

    • ローカル(推奨) - 追加設定なしで、IDE内に直接サーバーを取り込みます。

    • オンプレミス - 独自のハードウェアでサーバーを実行し、完全な制御とデータレジデンシーを確保します。イメージをプルしてDockerにデプロイするか、このリポジトリをクローンしてソースからビルドしてください。

最初のパイプラインの構築

  1. すべてのパイプラインは *.pipe 形式で認識されます。各パイプラインと設定はJSONオブジェクトですが、IDEの拡張機能がビジュアルビルダーキャンバス内でレンダリングします。

  2. すべてのパイプラインは、webhookchat、またはdropperのいずれかのソースノードから始まります。具体的な使用方法、例、パイプライン構築のヒントについては、ガイドとドキュメントをご覧ください。

  3. パイプラインを適切に配線するために、入力レーンと出力レーンを型ごとに接続します。エージェントやLLMなどの一部のノードは、以下に示すように親ノードで使用するためのツールとして呼び出すことができます:

  1. ソースノードの ▶ ボタンを押すか、Connection Manager から直接キャンバス上でパイプラインを実行できます。

  2. 独自のインフラストラクチャにパイプラインをデプロイします。

    • Docker - RocketRideサーバーイメージをダウンロードしてコンテナを作成します。Dockerのインストールが必要です。

      docker pull ghcr.io/rocketride-org/rocketride-engine:latest
      docker create --name rocketride-engine -p 5565:5565 ghcr.io/rocketride-org/rocketride-engine:latest
    • ローカルデプロイ - Connection Manager の「Deploy」ページから、スタンドアロンプロセスとして任意のランタイムをダウンロードします。

  3. パイプラインをスタンドアロンプロセスとして実行するか、SDKを利用して既存のPythonおよびTypeScript/JSアプリケーションに統合します。

可観測性

実行中のパイプラインを選択すると、詳細な分析が可能です。呼び出しツリー、トークン使用量、メモリ消費量などをトレースし、スケーリングやデプロイの前にパイプラインを最適化します。タスクに最適なモデル、エージェント、ツールを見つけてください。

コントリビューター

RocketRideは、成長を続けるコントリビューターコミュニティによって構築されています。バグの修正、ノードの追加、ドキュメントの改善、Discordでのサポートなど、貢献してくださった皆様に感謝します。新しい貢献をいつでも歓迎します。開始するにはコントリビューションガイドをご覧ください。


Install Server
A
security – no known vulnerabilities
A
license - permissive license
C
quality - C tier

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/rocketride-org/rocketride-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server