MetaHuman Animator を使用して、さまざまな動画デバイスおよびオーディオ デバイスでキャプチャしたフェイシャル パフォーマンスから、MetaHuman キャラクター用のアニメーションを生成することができます。 アニメーションを生成するには次の 3 つの方法があります。
モノラル動画カメラ (ウェブカメラを含む)、モバイル デバイス (Live Link Face アプリを使用)、またはオーディオ ソースからリアルタイムで生成する
iOS デバイスの TrueDepth カメラ、またはステレオ ヘッドマウント カメラ (HMC) でキャプチャした深度データからオフラインで生成する
モノラル動画またはオーディオからオフラインで生成する
リアルタイム アニメーションのクイックスタート
ウェブカメラからリアルタイムでレベルに追加されたアセンブル済み MetaHuman キャラクターをアニメートするには、以下の手順を実行します。
MetaHuman Live Link プラグインを有効にします。
Live Link ウィンドウを開き、新しい MetaHuman Video ソースとサブジェクトを追加します。
アセンブル済み MetaHuman キャラクターのキャラクター ブループリントをレベルに追加します。
レベルにあるキャラクターの [Details (詳細)] パネルで、[Live Link] セクションに移動し、手順 2 で作成した Live Link サブジェクトを選択します。
フェイシャル パフォーマンスに基づいて、キャラクターがアニメートされ始めます。
音声駆動アニメーションのクイックスタート
オーディオ データからオフラインでアニメーションを生成するには、以下の手順を実行します。
MetaHuman Animator プラグインを有効にします。
Take Recorder を使用するか、既存のオーディオ ファイルをインポートして、新しい SoundWave アセットを作成します。
MetaHuman Performance アセットの新しいインスタンスを作成します。
そのアセットをダブルクリックすると、MetaHuman Performance アセット エディタが開きます。
[Input Type (入力タイプ)] として [Audio (オーディオ)] を選択し、[Audio] フィールドで SoundWave アセットを選択します。
[Process (処理する)] をクリックします。
MHA を始めよう
Unreal Engine で MetaHuman Animator を使用するための 1 つまたは複数のプラグインを有効にします。
ハードウェア要件
MetaHuman Animator の推奨ハードウェア要件。
Unreal Engine の推奨プロジェクト設定
MetaHuman Animator を使用するための、推奨されるプロジェクト設定を以下に示します。
フェイシャル パフォーマンス キャプチャのガイドライン
MetaHuman Animator で使用するフェイシャル パフォーマンスをキャプチャするためのガイドラインおよびベスト プラクティス。
リアルタイム アニメーション
モノラル カメラ (ウェブカメラを含む)、サポートされているモバイル デバイス、またはオーディオ ソースから、リアルタイムで MetaHuman をアニメートします。
深度データを使ったアニメーション
iPhone の TrueDepth カメラまたはステレオ ヘッドマウント カメラ (HMC) でキャプチャした深度データを基に、MetaHuman をアニメートします。
モノラル ビデオを使ったアニメーション
モノラル ビデオを使って MetaHuman をアニメートします。
音声に基づくアニメーション
オーディオを処理し、MetaHuman のリアルなフェイシャル アニメーションに組み込む方法について説明します。
Python スクリプティング
Python API とサンプル スクリプトを使用して、MetaHuman Animator を自動化します。
メッシュをMetaHumanに変換
メッシュまたは動画フッテージから MetaHuman Identity を作成します。
アセット リファレンス
MetaHuman Animator で使用するアセットの詳細リファレンスです。