RunwayML + Luma AI MCP サーバー
この MCP サーバーは、ビデオおよび画像生成タスクのために RunwayML および Luma AI API と対話するためのツールを提供します。
特徴
- テキストプロンプトからビデオを生成します (RunwayML または Luma AI)。
- 画像からビデオを生成します (RunwayML または Luma AI)。
- テキストプロンプトから画像を生成します (Luma AI)。
- Luma AI 世代を管理します (一覧表示、取得、削除)。
- Luma AI 生成にオーディオを追加します。
- アップスケール Luma AI 世代。
- 生成前に OpenRouter LLM を使用してプロンプトを強化します。
前提条件
- Node.js (v18 LTS 以降を推奨)
- npm (通常はNode.jsに含まれています)
- APIキー:
- RunwayML APIシークレット
- Luma AI APIキー
- OpenRouter APIキー(
enhance_prompt
ツール用)
インストール
- **クローンまたはダウンロード:**サーバー コードを取得します。
- **ディレクトリへの移動:**サーバーのルート ディレクトリ (
runwayml-mcp-server
) でターミナルを開きます。 - 依存関係をインストールします:
構成
- **
.env
ファイルの作成:**サーバーのルート ディレクトリに、.env
という名前のファイルを作成します。 - API キーの追加:
.env
ファイルに API キーを追加します。プレースホルダー値を実際のキーに置き換えます。
サーバーの実行
- サーバーの構築: TypeScript コードをコンパイルします。
- サーバーを起動します。ターミナルのエラー出力 (stderr) に、
RunwayML MCP server running on stdio
のようなメッセージが表示されます。
MCP クライアントのセットアップ (例: Claude デスクトップ アプリ、Cline)
MCPクライアントをこのサーバーに接続するための設定を行ってください。具体的な手順はクライアントによって異なりますが、通常は以下の情報を提供する必要があります。
- **名前:**わかりやすい名前 (例:
runway-luma-server
) - コマンド:
node
- **引数:**コンパイルされたサーバーインデックスファイルへのフルパス (例:
/path/to/your/runwayml-mcp-server/build/server-index.js
) - 環境変数:
RUNWAYML_API_SECRET
: RunwayML APIシークレットLUMAAI_API_KEY
: Luma AI APIキーOPENROUTER_API_KEY
: OpenRouter APIキー
構成例(概念):
( /full/path/to/
システム上の実際のパスに置き換えることを忘れないでください)
利用可能なツール
generate_text_to_video
: テキストからビデオを生成します。provider
: (オプション)runwayml
(デフォルト) またはlumaai
。promptText
: (必須) テキストプロンプト。runway_model
: (オプション) 滑走路モデル (例: "gen-2")。runway_resolution
: (オプション) 滑走路の解像度 (1280:768
または768:1280
)。runway_watermark
: (オプション) ブール値、デフォルトはfalse
。luma_model
: (オプション) 輝度モデル (ray-flash-2
、ray-2
(デフォルト)、ray-1-6
)。luma_aspect_ratio
: (オプション) 輝度アスペクト比 (例:16:9
(デフォルト)、1:1
)。luma_loop
: (オプション) ブール値。duration
: (オプション) ビデオの長さ(秒数)(数値)。seed
: (オプション) 生成シード (数値)。
generate_image_to_video
: 画像からビデオを生成します。provider
: (オプション)runwayml
(デフォルト) またはlumaai
。promptImage
: (必須) 入力画像の URL、または Runway の場合は配列[{uri: "url", position: "first" | "last"}]
。promptText
: (オプション) 画像に添えるテキストプロンプト。runway_model
: (オプション) 滑走路モデル (gen3a_turbo
(デフォルト))。runway_duration
: (オプション) 滑走路所要時間 (5
(デフォルト) または10
)。runway_ratio
: (オプション) 滑走路の解像度 (1280:768
または768:1280
)。runway_watermark
: (オプション) ブール値、デフォルトはfalse
。luma_model
: (オプション) 輝度モデル (ray-flash-2
、ray-2
(デフォルト)、ray-1-6
)。luma_aspect_ratio
: (オプション) 輝度アスペクト比 (例:16:9
(デフォルト))。luma_loop
: (オプション) ブール値。seed
: (オプション) 生成シード (数値)。
enhance_prompt
: OpenRouter を使用してプロンプトを調整します。original_prompt
: (必須) 強化するプロンプト。model
: (オプション) OpenRouter モデル名 (デフォルトはanthropic/claude-3.5-sonnet
のような有効なモデル)。instructions
: (オプション) 拡張機能の具体的な指示。
luma_generate_image
: Luma AI を使用して画像を生成します。prompt
: (必須) テキストプロンプト。aspect_ratio
: (オプション) 輝度アスペクト比 (16:9
(デフォルト))。model
: (オプション) 輝度画像モデル (photon-1
(デフォルト)、photon-flash-1
)。image_ref
: (オプション) 画像参照オブジェクトの配列 ({url: string, weight?: number}
)。最大4個。style_ref
: (オプション) スタイル参照オブジェクトの配列 ({url: string, weight?: number}
)。最大1つ。character_ref
: (オプション) 文字参照オブジェクト ({ identity0: { images: [url1, ...] } }
)。modify_image_ref
: (オプション) 画像参照オブジェクトを変更します ({url: string, weight?: number}
)。
luma_list_generations
: 以前の Luma AI 世代を一覧表示します。limit
: (オプション) 結果の数 (デフォルトは 10)。offset
: (オプション) ページ区切りのオフセット (デフォルトは 0)。
luma_get_generation
: 特定の Luma AI 世代の詳細を取得します。generation_id
: (必須) 世代の UUID。
luma_delete_generation
: 特定の Luma AI 世代を削除します。generation_id
: (必須) 世代の UUID。
luma_get_camera_motions
: Luma AI プロンプトでサポートされているカメラモーションを一覧表示します。(パラメーターなし)。luma_add_audio
: Luma 生成にオーディオを追加します。generation_id
: (必須) 世代の UUID。prompt
: (必須) オーディオのプロンプトを表示します。negative_prompt
: (オプション) オーディオの否定プロンプト。
luma_upscale
: Luma 生成をアップスケールします。generation_id
: (必須) 世代の UUID。resolution
: (オプション) ターゲット解像度 (1080p
(デフォルト) または4k
)。
(注: 生成を伴うツール ( generate_*
、 luma_upscale
) の場合、サーバーはタスクを開始し、すぐに戻ります。進行状況の更新と最終結果の URL は、MCP 進行状況通知を通じて送信されます。)
ワークフローの例
一般的なユースケースでサーバーのツールを組み合わせる方法の例を次に示します。
1. ミュージックビデオの一部(サイバーパンク・ノワール)
**目標:**歌詞「クロムの街を流れるネオンの川」に合わせて 5 秒間のサイバーパンク ノワール ビデオ クリップを作成します。
手順:
- ベースイメージ(輝度)を生成:(画像生成が完了するまで待って、画像URLを取得します)
- 画像をアニメーション化(輝度):(ビデオ生成が完了するまでお待ちください)
2. 商品広告コンセプト(フローティングイヤホン)
**目標:**ミニマリストな環境に浮かぶ未来的なイヤホンを示す 5 秒間のビデオを作成します。
手順:
- 製品参照(輝度)を使用してシーンを生成:(画像生成が完了するまで待って、画像URLを取得します)
- シーンをアニメーション化(輝度):(ビデオ生成が完了するまでお待ちください)
3. 画像アニメーション(RunwayML Gen3a)
目標: RunwayML の Gen3a モデルを使用して既存の画像をアニメーション化します。
手順:
- **(オプション) ベースイメージ (Luma) の生成:**画像がない場合は、
luma_generate_image
を使用します。 - 画像をアニメーション化する (RunwayML):(ビデオ生成が完了するまでお待ちください)
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
テキストからビデオ、画像からビデオ、プロンプトの強化、世代の管理など、ビデオおよび画像の生成のために RunwayML および Luma AI API と対話するためのツールを提供します。
Related MCP Servers
- AsecurityAlicenseAqualityProvides access to Amazon Bedrock's Nova Canvas model for AI image generation.Last updated -11420JavaScriptMIT License
- -securityFlicense-qualityA server that provides Luma AI's video generation API as the Model Context Protocol (MCP)Last updated -2TypeScript
- -securityFlicense-qualityCreate videos and images using Luma AI, this MCP server handles all API functionality for Luma Dream Machine from Claude Desktop.Last updated -Python
- -security-license-qualityModel Context Protocol server that enables generating videos from text prompts and/or images using AI models (Luma Ray2 Flash and Kling v1.6 Pro) with configurable parameters like aspect ratio, resolution, and duration.Last updated -1JavaScriptMIT License