MENU
記事のカテゴリー

動画生成AI で画像から動画が作れる?!アップグレードしたRunway Gen-3 Alpha (Turbo)とは?その使い方やおすすめプロンプトを解説

Runwaygen-3記事アイコン画像
  • URLをコピーしました!

最近、生成AIの進化が目覚ましく、Open AIがプロンプトから動画を生成できる AI「 SORA」を発表してから動画生成についても注目されるようになりました。

そこで動画生成として注目をされるようになったのが、「Runway」という動画生成AIで、その最新版であるRunway Gen-3 Alpha が2024年7月1日にリリースされました。

動画を生成できるこのAIツールは、クリエイティブ業界だけでなく、マーケティングやコンテンツ制作の分野でも大きな話題となっています。

この記事では、この最先端の動画生成AI「Runway Gen-3 Alpha」の魅力を徹底解説し、その使い方やおすすめのプロンプトを詳しく紹介します。

Runway Gen-3 Alpha Turboは、プロンプトからの動画生成だけでなく画像から、プロフェッショナルレベルの動画を驚くほど簡単に作成できることで話題です。

その高速な処理能力と直感的なユーザーインターフェースにより、AI初心者から経験豊富なクリエイターまで、誰でも手軽に高品質な動画を制作できます。

さらに、このツールは最新のアルゴリズムを採用しており、よりリアルで鮮明な映像を生成することが可能です。

この記事を読むことで、Runway Gen-3 Alpha Turboを使ってどのように画像やプロンプトから魅力的な動画を作成できるのか、その秘訣を学ぶことができます

これから紹介する使い方やプロンプトの例は、あなたの制作活動を一段と高めるための貴重なヒントとなるでしょう。動画生成AIに興味がある方、または最新のクリエイティブツールを探している方にとって必見の内容です。

この記事がおすすめな方
  • 生成AIで動画を作れることに興味がある方
  • 画像から動画を作成してみたい方
  • AI動画生成を活用してみたい方
レイ

動画生成AIと言えば、やはりOPEN AIが2024年上半期中に発表した「SORA」の衝撃が大きかったよね!プロンプトから動画が生成されてしまうなんて驚きでしかないよな。そんな中いち早く動画生成AIとしてのポジションを確立してきたのが、このRunway!今回バージョンアップされてどんなことができるのか気になるね。その実力を見てみよう!

目次

Runway Gen-3 Alpha の基本機能とAI動画生成の概要

引用元:Runway公式ホームページ

Runwayは、Runway AI, INC.(RunwayまたはRunwayMLとしても知られる)によって開発された動画生成AIモデルです。

この会社は、チリ人のクリストバル・バレンスエラ、アレハンドロ・マタマラ、ギリシャ人のアナスタシス・ゲルマニディスがニューヨーク大学ティッシュ・スクール・オブ・アーツのITPで出会ったことをきっかけに、2018年に設立されました。同年に200万ドルを調達し、マルチメディアアプリケーション内で機械学習モデルを大規模に展開するプラットフォームを構築しました。

2020年12月にはシリーズAラウンドで850万ドル2021年12月にはシリーズBラウンドで3500万ドルを調達しました。2022年8月には、ルートヴィヒ・マクシミリアン大学ミュンヘンのCompVisグループと共同で、改善されたLatent Diffusionモデルをリリースしました。

2022年12月にはシリーズCラウンドで5000万ドル2023年6月にはシリーズCの拡張ラウンドで1億4100万ドルを調達し、これによりGoogle、Nvidia、Salesforceなどから評価額15億ドルを受けました。この資金は、映画やビデオ制作で使用されるマルチモーダルAIモデルの構築に充てられます。

2023年2月には、初の商業用動画生成モデル「Gen-1」と「Gen-2」を公開し、ウェブインターフェースを通じて利用可能にしました。そして2023年6月には、TIME誌により世界で最も影響力のある100社の一つに選ばれました。

そこで2024年は、7月1日に新バージョン「Gen-3 Alpha」がリリースされ、その1ヶ月半後の8月15日には、マイナーバージョンアップした「Gen-3 Alpha Turbo」がリリースされ話題になっています。

Wikipedia記事より引用

Wikipedia:Runway AI, Inc.

Runway Gen-3 Alpha とは?

Gen-3 Alphaは、Runwayの動画生成AIモデルの最新バージョンであり、Gen-1およびGen-2に続くものです。

忠実性、一貫性においてGen2より大きな改善がされました。

Runway Gen-3 Alpha Turboの前にその前提となるGen-3 Alphaについて説明します。

主な特徴は、以下の通りです。

高度な動画生成

テキストプロンプトや画像から高精度で一貫性があり、動きに富んだ動画を生成することができます。特に、幅広いアクション、ジェスチャー、感情を表現する人間キャラクターの生成に優れており、動画による新しい形のストーリーテリングの可能性を引き出します。

マルチモーダルトレーニング

このモデルは、大規模なマルチモーダル学習のために構築された新しいインフラストラクチャ上でトレーニングされており、動画と画像のトレーニングを組み合わせています。これにより、Runwayのエコシステム内のさまざまなツール(テキストから動画、画像から動画、テキストから画像)を強化します。

細かな時間制御

Gen-3 Alphaは、非常に詳細で時間的に密度の高いキャプションでトレーニングされており、想像力豊かなトランジションやシーン内の要素の正確なキーフレーム設定を可能にしています。

フォトリアル(写実性の高い)人間キャラクター

Gen-3 Alphaは、幅広いアクション、ジェスチャー、感情を持つ表現力豊かな人間キャラクターの生成に優れており、新しい物語の可能性を引き出します。

アーティストによるアーティストのために

Gen-3 Alphaのトレーニングは、研究科学者、エンジニア、アーティストからなる学際的なチームの協力によって行われました。このモデルは、幅広いスタイルや映画用語を解釈できるように設計されています。

このモデルは、映画制作、広告、メディア制作、教育、ゲーム、そして仮想現実開発など、さまざまな業界に対応するように設計されています。Runwayは、特定の芸術的および物語的要件に応じたカスタムバージョンのGen-3を作成するために、主要なエンターテインメントおよびメディア組織とも協力しています。

Runway 公式ホームページ内gen-3 alpha 紹介ページ

引用元:Introducing Gen-3 Alpha: New Frontier for Video Generation

Runway Gen-3 Alphaは、AIを活用した動画生成における大きな飛躍を示しており、クリエイターや業界に対して、これまでにない品質とコントロールを持つ新しいストーリーテリングやビジュアルコンテンツ制作のツールとなるでしょう。

Gen-3 AlphaはGen-2と何が違うの?

特徴Runway Gen-3 AlphaRunway Gen-2
画質より高品質で写実的Gen-3よりも低品質
一貫性フレーム間の一貫性が向上一貫性にやや欠ける
モーションより自然で滑らかな動き動きがぎこちない場合あり
生成時間10秒の動画を生成可能4-5秒の動画生成が限度
入力オプションテキスト、画像、既存動画から生成可能テキストと画像のみ
時間的制御より精密な時間的制御が可能時間的制御は限定的
人物表現表情豊かで多様な動作が可能人物表現に制限あり
トレーニングマルチモーダルな大規模インフラで訓練Gen-3ほど高度なインフラではない

Gen-3 Alphaは全体的に大幅な改善が見られ、より高品質で柔軟性の高い動画生成が可能になっています。

特に人物表現や時間的制御、そして画像から動画と入力オプションが増えて大きく進化しました。

Runway Gen-3 Alpha Turboとは?

2024年7月1日リリースされたばかりのGen-3 Alphaですが、8月15日により速度の速さとコスト重視をしたバージョンであるGen-3 Alpha Turboがリリースされました。

  • 動画の生成速度がGen-3 Alphaの7倍
  • 生成コスト半分

Gen-3 Alpha/ Alpha Turboでは、画像から動画を生成する際に「Last Frame」と言って、画像を動画の最後のフレームとして生成するを選択することが出来ます。

速度の向上により、ほぼリアルタイムでの動画制作が可能となり、AI動画生成におけるタイムラグの問題を解決しています。

コストに関しては、生成される動画の1秒あたり5クレジットを使用し、これはGen-3 Alphaの10クレジットと比較して半分のコストになっています。

Gen-3 Alpha
  • ダイナミックな動きのある動画を生成するのが得意
  • 複雑な動きをする動画が得意
  • Gen-3 Alpha Turboに比べて、よりクリエイティブな動画を生成しやすい
  • 生成速度がAlpha Turboに比べて遅い分、コストが高いのがデメリット
Gen-3 Alpha Turbo
  • 動きの少ない安定した動画を生成するのが得意
  • Gen-3 Alphaに比べて元の画像に忠実な動画を生成する
  • 生成速度が7倍の速さなので非常に生成速度が速く、コストが低い

最新バージョンのGen Alpha Turboは、無料版でも使える(無料クレジット分のみ)ので是非試してみてください。

るい

Gen-3 Alphaの方が動きの複雑な動画が得意そうだね!

Runway Gen-3 Alpha Turbo を使った動画作成の具体的な手順

Runawayの公式ホームページは英語なので翻訳が必要な場合は、ブラウザの日本語翻訳機能を利用して日本語表示にしてみてください。

アカウント作成と初期設定

Runwayは、メールアドレスの登録のみで簡単に始めることが出来ます。無料版でもある程度利用できるので、早速アカウントを作成してみましょう。

STEP
Runway公式ホームページにアクセス

最初にRunway公式ホームページにアクセスします。

あとは「Sign up for free」をクリックして初期登録を開始します。

Runway公式ホームページ初期登録画面
STEP
ユーザー新規登録

Emailアドレスで登録するか、もしくはGoogleアカウントやAppleアカウントで簡単に登録できます。

Emailアドレス登録画面

画像から動画への生成手法

前セクションで解説した特徴の通り、画像から動画を生成できるので、DALL-E3やStable Diffusionなどの画像生成AIで生成した画像を使って、そこから動画を生成することが出来てしまいます。

主な特徴
・アウトプットは、1280×768ピクセルの固定解像度
・動画の尺は、5秒また10秒を選択可能
・カスタム設定(プリセット可能)
・リップシンク機能

STEP
ダッシュボード画面

ダッシュボード画面から「text/image to video」を選択します。

STEP
AIモデルを選択

画面左上で、3つのモデル、Gen-3 Alpha Turbo, Gen-3 Alpha, Gen-2を選択できるのですが、無料版では、Gen-3 Alpha TurboもしくはGen-2のみ選択できます。

動画生成画面AIモデル選択
STEP
画像をアップロードして動画を生成

画面左側にアップロードしたい画像をドロップすることでアップロードできます。

「First」「Last」は、画像を動画の最初のフレームにするか、最後のフレームにするかを選択できます。

プロンプト入力ボックスがあるため、そちらに適切なプロンプトを入力します

プロンプトを入力したら、右下の「Generate」ボタンをクリックします。

使用したプロンプト

Asian beautiful model, walking street shopping,street photography,Super cool,model.
[camera movement]: [Low angle with wide angle :]. [ The camera is angled up at a woman as she is walking on a shopping street].
Subject walkes like a model , her face smiles

画像をアップロードして、プロンプトを入力


STEP
動画の完成!

Gen-3 Alpha Turboは、驚くほど生成速度が速いです。数十秒で完成します。

完成した動画は、まるでプロが撮影した広告動画みたいな完成度になっています。普通は、動画から画像をクリップするのであれば考えられますが、画像から動画が逆に作れてしまいました。

ミラ

画像が動画になるのって、実際やってみると楽しいね!
いろんな画像を動画にしてみたくなるね。

上手く生成するためのプロンプトの書き方や設定

日本語で入力するよりも英語でプロンプトを入力した方が精度が上がります。
ChatGPTなどの生成AIで日本語を簡単に翻訳できるので英語で是非入力してみてください。
プロンプトは具体的であるほど精度が上がります。
それをベースに下部で解説するプロンプトの構成にしたがってプロンプトを仕上げます。

Gen-2のモデルでは、ディレクター・モードがあります。

この機能は、下の画像の通りカメラの動き、角度、ズームなどを操作することが出来ます。

これは、他の動画生成AIサイトにはあまりない機能で、出力される動画アウトプットをある程度制御できます。

Runwayならではの機能なのですが、現在のところGen-3ではこの機能はありません。

今後のアップデートでGen-2のディレクター・モードより進化したものが搭載されると発表されているので楽しみですね。

ディレクター・モード操作

Gen-3では、下の画像の通りカスタム設定ができます。

アップロードした画像の左側のタブで「Custom Presets」を選択することで、カスタム設定を選択し動画生成に適用することが出来ます。

下記の画像の選択肢は、一部でそれ以外にも多くの選択肢があリます。

  • 人混みの中の人
  • シネマティックドローン
  • クローズアップ
  • クローズアップポートレイト
  • ダイナミックモーション(動きのあるモーション)
  • 広角
  • 速いモーション
  • 速いズーミング
  • 一人称視点
  • 手持ちカメラ風

FPV(一人称視点)なんかとても面白いですよね。動物や虫などの一人称視点の動画を生成出来ます。

下のRunwayRunwayのXの投稿では、ハイパーラプスとPOVを組み合わせて面白い動画を生成しています。

Lip sync(リップシンク)機能

リンプシンク(リップ・シンクロナイゼーション)は、動画内の口の動きと映像の音声が一致している状態を言います。

動画生成後に画面右側の動画の下に表示される「Lip Sync」ボタンを押すと、左側半分が編集画面に切り替わります。

そこで音声ファイルをアップロードするか録音することで音声をシンクさせることが出来ます。

プロンプトのコツとクリエイティブな例

基本的なプロンプトの書き方

Runway公式ホームページプロンプトガイドラインにプロンプトの構造やキーワードなど、動画をより効果的に生成するためのプロンプト作成のコツが記載されています。

プロンプトの構造

テキストのみのベースプロンプト

シーン、被写体、カメラの動きに関する詳細を別々のセクションに分けて構造化する
Text to videoは、有料版のGen-3 Alphaモデルのみ可能です。

[Camera movement(カメラの動き)];[Establishing scene(シーンの動き)].[Adiditional details(追加の詳細)]
カメラの動きを指定した後は、セミコロンでシーンの動き指定の以降はピリオドで終えます。
例:[Handheld];[A fashionable woman walking].[at the central park in New York city].
訳:[手持ちカメラ];[おしゃれな女性].[がニューヨークシティのセントラルパークで歩いている].
下の動画がそれで出力した動画です。歩き方が少しぎこちなくなってしまいましたが、手持ちカメラで撮影したカメラワークになっています。

[Handheld];[A fahionable woman walking].[at the central park in New York city].
画像+テキストベースのプロンプト

画像の内容よりも、出力される動きについて説明することに焦点を当てる

入力画像と大きく異なるテキストプロンプトを使用すると、予期しない結果となってしまう

プロンプトキーワード

キーワードは、特定のスタイルを出力させるため。キーワードがプロンプト全体と整合していると、出力に反映されやすくなる。例えば、広角ショットではカメラが顔に寄っていないので、肌の質感に関するキーワードは効果的ではない。

カメラスタイル
引用元:Runway公式ホームページプロンプトガイドライン
カメラスタイルのキーワード
  • Low angle(ローアングル、下からのアングル)
  • High angle(ハイアングル、上からのアングル)
  • Overhead(頭上からのアングル)
  • FPV(一人称視点)
  • Handheld(手持ちカメラ風)
  • Wide angle(広角)
  • Close up(クローズ・アップ)
  • Macro cinematography(マクロ視点のシネマトグラフィ)
  • Over the shoulder(肩から上の視点)
  • Tracking(追跡視点)
  • Establishing wide(ワイドな動き)
  • 50mm lense(50ミリレンズ)
  • Snorri Cam(被写体にカメラを吊るす器具を使ったショット)
  • Realistic documentary(リアルドキュメンタリー風)
  • Camcorder(ハンディーカメラや手持ちでの自撮り風)
照明スタイル
照明スタイルのキーワード
  • Diffused lighting(拡散照明)
  • Silhouette(人や物体のシルエット)
  • Lense flare(レンズのフレア)
  • Back lit(逆光)
  • Side lit(側面光)
  • [Color] gel lighting(色彩・ジェル照明)
  • Venetian lighting(ベネチア風ライティング 差し込む灯り)
ムーブメントのスピード
ムーブメント(動き)のスピード
  • Dynamic Motion(ダイナミック・モーション)
  • Slow Motion(スロー・モーション)
  • Fast Motion(ファースト(速い)・モーション)
  • Time Lapse(タイムラプス)
ムーブメントの種類
ムーブメント(動き)の種類
  • Grows(成長する、伸びるなど)
  • Emerges(出現する)
  • Explodes(爆発する)
  • Ascends(上昇する)
  • Undulates(うねる、波打つ)
  • Warps(ねじれる、ゆがめる)
  • Transforms(変形させる、変わる)
  • Ripples(波紋、さざ波を立てる)
  • Shatters(粉砕する)
  • Unflods(広げる)
  • Vortex(渦巻く)
スタイル&芸術的美しさ
スタイル&芸樹的美しさ
  • Moody(ムーディーな)
  • Cinematic(シネマティックな)
  • Iridescent((光の反射によって)虹色の、色々な色に変化する)
  • Home video VHS (VHSホームビデオ風)
  • Glitchcore(グリッチコアは、通常の画像を編集して歪め、非常に彩度の高い色や点滅するパターンを含むようにする視覚的な美学)
テキストスタイル
テキストスタイル
  • Bold(太字)
  • Graffiti(落書き風)
  • Neon(ネオン風)
  • Varsity(高校・大学スポーツ代表チーム風)
  • Embroidery(刺繍風)

Runway公式ホームページのプロンプトガイドライン

引用元:プロンプトガイドライン

クリエイター必見!生成動画活用事例

通常に撮影した動画のクリップを画像として使用して、生成された動画を元の動画とコンポジット(合成)することでクリエイティブで面白い動画を作ることが出来ます。

コンポジットとは、3DCGなど複数の素材や動画をなじませながらMayaやAfter Effectsなどの編集ソフトなどで用いて合成することです。

いくつか面白い例をご紹介します!

リサ

合成したらこんな楽しい動画が作れてしまうなんてね!このレベルの動画を自分で作れてしまうなんてすごすぎる。

Runway Gen-3 Alpha Turbo を使ってみて

Runway Gen-3 Alpha Turboの良い点と欠点

動画生成AIは、Open AIが「 SORA」と名付けた動画生成AIを発表されてそのレベルが過去のもの比べて、レベルが格段に上がってきていることを認識しました。

Open AIの「 SORA」に期待が集まっている中、2024年8月現在も一般公開がされていません。

そこでRunwayがアップグレードしたGen-3がリリースされたことで、現時点ででは、動画生成AIの最有力と言っても過言ではありません。

そこで2024年8月時点で最強動画生成AIである「Runway Gen-3」の強みと弱みをまとめてみました。

  • 生成速度がとても速く、数十秒で10秒程度の動画を生成
  • 人物の表情が豊かで多様な動作が可能
  • 10秒動画でもキャラクターや要素の一貫性を高レベルで維持
  • 複雑で詳細な環境や物体を精密にレンダリング
  • テキストからだけでなく、画像入力で動画生成可能
  • アウトプットにある程度のコントロールが可能(今後のアップデートでさらに細かく制御が可能に)
  • 高コスト
  • Gen-3には、現時点で動画から動画への生成機能はない
  • 動きのない単なる静的なズームだけの動画が生成される場合がある
  • 一貫性がよくなりGen -2より改善されてはいるが、顔や表情が動くシーンで顔の特徴を一貫して維持できない場合がある
  • 手足の複雑な動きに対して、正確にレンダリングが難しい場合がある

Gen-2からGen-3へバージョンアップしたことで、生成速度が格段と上がり、特に細部の表現、一貫性、動きの表現において大幅な改善が見られます。

2024年8月後半時点では、Gen-2であったディレクターモードがなく、プロント以外で、ユーザーのコントロールがありません。

今後のアップデートで、ディレクターモードもパワーアップしてGen-3に導入される予定とのことなので、期待しています。

Runway Gen-3 Alpha/Turboと画像生成AIのFLUXが最強コンビ!?

FLUX+Gen-3 Alpha Turboの組み合わせが最強!?

画像→動画生成をGen-3 Alpha Turboモデルを画像から動画生成を行う場合、MidJorneyV6でもちろん作成した高画像でも可能ですが、最近Midjourneyを凌駕すると話題の画像生成モデルFLUXを利用して高画質な画像を生成し、その画像を利用して動画を生成することでハイクオリティな動画生成が出来ます!

FLUX.1は、2024年8月にBlack Forest Labs(Stable Diffusionの開発者たちが設立)によって発表されたオープンソースの最新画像生成AIモデルです。主な特徴は以下の通りです:

  1. 120億のパラメータを持つ大規模モデル
  2. 高品質な画像生成能力(MidjourneyやDALL-E 3を凌駕すると評価)
  3. プロンプトに対する高い忠実性
  4. 3つのバリエーション(pro、dev、schnell)を提供
  5. 複雑なシーンや細かい指示にも正確に対応

Black Forest Labsはドイツに拠点を置き、最近ステルスモードから出て、Andreessen Horowitzが主導する3100万ドルのシード資金を調達しました。

その他の注目すべき投資家には、Y CombinatorのCEOであるギャリー・タンや、元Oculus CEOのブレンダン・イリブが含まれています。

このスタートアップの共同創設者であるロビン・ロンバッハ、パトリック・エッサー、アンドレアス・ブラットマンは、かつてStability AIのStable Diffusionモデルの開発に携わった研究者でした。

最近では、Eron Maskとのコラボレーションが発表され、XのAIであるGrokの画像生成AIをFlux.1を用いて強化しているそうです。

Techcrunch記事参照

引用元:Meet Black Forest Labs, the startup powering Elon Musk’s unhinged AI image generator

Flux.1には、以下の3つのモデルがあります。

  • FLUX PRO:最高品質、商用利用可能
  • FLUX dev:非商用向け
  • FLUX schnell:生成スピード重視

FLUX PROは、2024年8月後半現在では、利用できるサービスプラットは以下の通りです。

Mystic.ai

FLUXのModel Hubで全モデルが利用可能。

引用元:Mystic.aiホームページ:Explore
Replicate

Replicateというプラットフォームを通じてFLUX.1 Proを利用できます。GitHubアカウントでのサインインが必要です。

Replicateのホームページ
引用元:Replicateホームページ
fal.ai

fal.aiというプラットフォームでもFLUX.1 Proを利用できます。こちらもGitHubアカウントでのログインが必要です。fal.aiは比較的無料利用枠が多いとされています。

fal.aiのホームページ
引用元:fal.aiホームページ

もしProでなくても良いから気軽に使ってみたいという方は、BasedLabsがおすすめです。

無料プランでも、FLUX.1 devFLUX.1 schnellを試すことが出来ます。

STEP
Based Labsで高画質画像を生成してみよう

パターン1画像:サイバーな女性兵士の画像を生成

パターン2:水が滴った目のクローズアップ画像を生成

STEP
Runway Gen-3 Alpha Turboで動画生成してみよう

パターン1画像から生成した動画

サイバーな女性兵士

パターン2画像から生成した動画

水が滴る目の瞬きクローズアップ動画

高画質の画像生成AIで作成した画像から生成した動画はさらにハイクオリティですね!

おすすめの最新画像生成AI FLUX+Runway Gen-3 Alpha Turboの組み合わせ是非試してみてください!

もしFLUXが使えない場合は、MIdjourney V6で高画質画像を生成しても良いでしょう。

料金プランと商用利用について

引用元:Runway公式ページ

有料プランと無料プランの違い

Runwayの料金プランと無料プランとの主な違いを表にまとめました:

機能Basic (無料)Standard ($12/月)Pro ($28/月)Unlimited ($95/月)
クレジット初回登録550クレジット限り625クレジット
/月
2250クレジット/月無制限
Gen-3 Alpha最大10秒最大10秒最大10秒
Gen-1/Gen-2解像度アップスケール
ウォーターマーク削除
ビデオプロジェクト3つまで無制限無制限無制限
ストレージ容量5GB100GB500GBカスタム
ビデオエクスポート720p4K4K4K
カスタムAIトレーニング1つ3つ無制限

商用利用できる?

Runwayの利用規約では、以下のようにコンテンツの著作権に関して記載しています。

・ユーザーが生成したコンテンツの著作権はユーザー側に帰属します。ユーザー生成したコンテンツに対して著作権を保持し、商用利用を含む自由な使用が可能
・ただし、Runwayhも生成されたコンテンツに対して一定の権利を有する
 ・Runwahはコンテンツの所有権は主張しない
 ・AIモデルの改善のために、ユーザーの入力と出力を使用する権利がある
 ・生成されたコンテンツに対して非独占的で広範囲な利用ライセンスを保持する

基本的にはユーザーがコンテンツの著作権を持ちますが、Runwayも一定の利用権を保持している点に注意が必要です。

具体的な利用方法や範囲については利用規約を詳細に確認することが重要です。

Runway 公式ページ 利用規約

引用元:Terms of Use Agreement

最新アップデート情報

2024年8月31日のアップデート

8月31日にXの投稿で40秒までの動画を生成できるようになったと発表されました。

Alpha Turboにはまだ実装されず、Gen-3 Alphaのみ対応です。

ただし、注意が必要なのは1回の生成で40秒の動画が生成されるのではありません。

1回のプロンプトでは、以前の通り5秒から10秒の動画の生成となり、これまでと違うのは続きの動画を生成できるようになりました。

生成した動画の左下に「Extend」(延長)ボタンがあるのでこのボタンを押すことで、続きの動画を生成することが出来、また1回1回のプロントでシーンを変えることもできます。

Extendができるのは、トータルで最大40秒までとなります。

最後に

この記事では、動画生成AI Runwayの最新アップデートGen-3 Alpha (Turbo)についてご紹介し、Runway Gen-3 Alpha Turboを使ってどのように画像やプロンプトから魅力的な動画を作成できるのかを実際に動画を生成して解説してきました。

Gen-3は、画質だけでなく一貫性や忠実性が格段に向上しました。

今後のアップデートでより詳細なアートディレクション機能を搭載する予定なのでより期待が高まります。

動画生成AIのレベルはここ1年だけでも目覚ましい進化を遂げています。

よりクリエイティブな活動な幅を広げ、ビジネスに活用されるチャンスも多くなっていくでしょう。

画像から動画を生成する楽しさを是非一度体験してみましょう!

massa

当ブログでは、初心者からでもAIを学べるようAIについての知識の集約、解説、ChatGPTのおすすめスキルなどを発信して行きます。
よかったら、是非、ブックマーク&フォローしてください。

よかったらシェアしてね!
  • URLをコピーしました!

この記事を書いた人

🐾E-commerce Small Business Owner🐾 |massa
Certified Prompt Engineer/ Certified Digital Marketing Professional
🌎8ヶ国在住歴 🇹🇼 🇸🇬 🇪🇸 🇦🇺🇧🇷 🇺🇸 🇯🇵🇦🇪 2024📍🇸🇬

1982年生まれ、幼少期から海外で過ごし、通算8カ国に住んできました。
環境が変わることに慣れており、変化に適応すること、
そして昔から好奇心旺盛で、最新技術を学び新しいことに挑戦することが大好きで、この2つを得意としています。

本業は、デジタルマーケティングを活かしたEコマース事業をしております。

日々AIテクノロジーが進化していく中、自らAIを学びそのスキルを活用していく重要さを感じております。

多くの方に、AIを学んでいただき、今後のAI時代を一緒に乗り切るため、初心者からAIについて全般的なジャンルを学べる学習ブログを開設しました。

当ブログは、これからのAI時代を乗り切るための、AIに関する知識やスキルを身につけるためのブログサイトです。

AIについての概論、海外情報を含む最新トピック、ChatGPTなど話題性の高いトピックから、より専門性の高い、機械学習、ディープラーニング、本業に絡めてデジタルマーケティング周りのトピックなども含むAIについての記事を発信していきます。

当ブログの読者みなさんのAIに関する知識レベル、スキルレベル向上に貢献できればと思います。

良かったら下記のリンクよりホームへ飛びますので、他の記事も是非覗いてみてください。

目次