iOS デバイス (iPhone または iPad) を使用して、アニメーションをリアルタイムで生成するか、深度データからオフラインで生成するには、Live Link Face アプリが必要です。 必要とされるハードウェア仕様の詳細については、「キャプチャ デバイスの要件」ページを参照してください。
以下の手順を実行して、MetaHuman 用のリアルタイム アニメーションを生成できるように、またはオフラインで処理するための深度データをキャプチャできるように、iOS アプリを設定します。
ここで注目しているのは深度データをキャプチャすることですが、Live Link Face アプリは動画、深度、オーディオをオフライン処理用に記録し、Unreal Engine でそのデータを使用してさまざまな方法でアニメーションを生成することができます。 たとえば、オーディオ データのみを使用して音声駆動アニメーションを生成することもできます。
Apple App Store から、Live Link Face iOS アプリ の最新バージョン (バージョン 1.5.0 以降) をダウンロードします。
Unreal Engine を実行している PC と同じローカル ネットワークにデバイスを接続します。
Live Link Face アプリを起動します。 EULA に同意し、カメラ、マイク、ローカル ネットワークへのアクセスをアプリに許可します (求められた場合)。
セットアップを容易にするために Unreal Engine でネットワーク自動検出を使用するには、ローカル ネットワークへのアクセス許可を受け入れる必要があります。 アプリのネットワーク アクセスを誤って拒否した場合にそれを解決するには、iOS の [設定] アプリを起動し、[プライバシーとセキュリティ] > [ローカルネットワーク] に移動して、Live Link Face に対してオプションをオンにします。
[設定] 画面で、[Capture Mode (キャプチャモード)] を [MetaHuman Animator] に設定します。
(任意指定) リアルタイム アニメーションを使用する場合は、[Realtime Animation (リアルタイムアニメーション)] オプションをオンにします。 そうすると、アプリがアニメーション データの生成を開始します。
[Done (完了)] をクリックして設定画面を終了します。
Live Link Face アプリが実行されていると、Live Link ハブの Live Link または Capture Manager にある Live Link Face ソースを使用して Unreal Engine に接続する準備が整います。