モバイル デバイスで Live Link を使用して、フェイシャル アニメーションをキャプチャし、Unreal Engine の MetaHuman にリアルタイムで適用します。Live Link は、フェイシャル パフォーマンスをキャプチャするだけでなく、頭の回転を Unreal Engine に送信します。これにより、自然な動きの可動域が広がります。
必要な設定
Live Link Face アプリは、ARKit をサポートする iOS モバイル デバイス (iPhone または iPad) でのみ使用できます。デバイスには、TrueDepth カメラが必要です。これは次のモデルで使用できます。
- iPhone:iPhone X 以降
- iPad:iPad Pro (第 3 世代) 以降
このガイドの手順を実行する前に、次の設定を完了する必要があります。
- モバイル デバイスで、Apple App Store から Live Link Face for Unreal Engine アプリをダウンロードしてインストールします。
- 新しい Unreal Engine プロジェクトを作成します。任意のテンプレートを使用できますが、最良の結果を得るには、プロジェクト内の空白のレベルから始めてください。
- MetaHuman Creator で MetaHuman を作成します。
- MetaHuman をダウンロードして、Unreal Engine にエクスポートします。この手順を完了する方法に関する詳細情報が必要な場合は、「MetaHuman をダウンロードおよびエクスポートする」セクションを参照してください。
- Unreal Editor のメインメニューから [Edit (編集)] > [Plugin (プラグイン)] に移動し、プロジェクトで次のプラグインが有効になっていることを確認します。
- Live Link
- Live Link Control Rig
- Apple ARKit
- Apple ARKit Face Support
これらのプラグインは、少なくとも 1 つの MetaHuman をプロジェクトにインポートした後、デフォルトで有効にする必要があります。
- (任意) MetaHuman をレベルに追加します。これにより、LiveLink の有効化とプレビューが容易になります。
Live Link を Unreal Engine に接続する
次の手順を実行します。
1. コンピュータの IP アドレスを見つける
これは、iOS デバイスとコンピュータで実行されている Unreal Engine のインスタンス間のリンクを構成するために必要です。
Windows では、次の手順に従います。
- タスクバーの [接続アイコン] を右クリック します。次に、コンテキスト メニューから [Open Network & Internet Settings (ネットワークとインターネットの設定を開く)] を選択します。
-
[Properties (プロパティ)] セクションまで下にスクロールし (または、OS のバージョンによっては [プロパティ] ボタンをクリックし)、IPv4 アドレスの値 を書き留めるかコピーします。
macOS では、次の手順に従います。
- [System Preferences (システム環境設定)] を開きます。
- [ネットワーク] アイコンをダブルクリックします。
- 現在接続している ネットワーク を選択します。
- [Advanced (詳細)] ボタンをクリックします。
-
開いたウィンドウで、[TC/ICP] タブをクリックし、IPv4 アドレス 値を書き留めるかコピーします。
2. LiveLink アプリを構成する
iPhone または iPad で Live Link を構成して、Unreal Editor での使用を開始します。
Live Link には iOS デバイスが必要ですが、Windows と macOS のどちらの Unreal プロジェクトでも作業できます。
- iOS デバイスで、Live Link Face アプリを開きます。
- 左上隅にある [Settings (設定)] (歯車のアイコン) をタップします。
-
[Live Link]、[Add Target (ターゲットを追加)] の順に選択します。
- [Add Target] の画面で、先ほどメモした IPv4 アドレスを入力します。
- 右上隅にある [Add (追加)] をタップします。
- (任意) [Subject Name (サブジェクト名)] フィールドで、Live Link 接続に認識しやすい名前を付けます。
Live Link が正しく接続されていることを確認するには、Unreal Engine のメイン メニューから [Windows (ウィンドウ)] > [Virtual Production (バーチャル プロダクション)] > [Live Link] に移動します。これにより、Live Link 構成設定ウィンドウが開きます。iPhone または iPad が Source (ソース) としてリストされています。

この例では、電話「iPhoneChris」が LiveLink ソースとして認識されています。
MetaHuman ブループリントを構成する
次に、Live Link からのデータを受け入れるように MetaHuman のブループリントを構成する必要があります。 これには次の 2 つの方法があります。
- レベル ビューポートから行う
- MetaHuman のブループリントから行う
レベル ビューポートから行う
MetaHuman をレベル ビューポートに追加している場合は、以下の手順で行います。
-
レベル ビューポート で、MetaHuman をクリックして選択します。
-
MetaHuman ブループリントを選択して、[Details (詳細)] パネルの [Live Link] セクションで次の設定を行います。
- ARKit Face Subj (ARKit フェイス サブジェクト):ドロップダウンから使用するデバイスを選択します。
- Use ARKit Face (ARKit フェイスを使用):このオプションを有効にします。
より高度な MoCap テクノロジーを使用してボディ モーションもキャプチャする場合は、[Live Link Body Subj (Live Link ボディ サブジェクト)] 設定および [Use Live Link Body (Live Link ボディを使用)] 設定で以下の手順を繰り返します。
MetaHuman のブループリントから行う
-
コンテンツ ブラウザ で、
BP_(MetaHumanName)
ブループリントを検索して開きます。このチュートリアルでは、ブループリントの名前がBP_Taro
である Taro プリセットを使用しています。 -
[Components (コンポーネント)] パネルで、ルート コンポーネントを選択します。これは
BP_(MetaHumanName)(Self)
という名前になっています。 -
BP(MetaHumanName)(Self) コンポーネントの [Details] パネルで、次のプロパティを構成します。
- ARKit Face Subj:ドロップダウンから使用するデバイスを選択します。
- Use ARKit Face:このオプションを有効にします。
-
ブループリントを コンパイル して、保存 します。
Live Link 接続をテストする
Live Link 設定をテストして、MetaHuman が受信データに正しく反応するかどうかを確認できるようになりました。次の手順を実行します。
-
まだ行っていない場合は、コンテンツ ブラウザ から、MetaHuman ブループリントをレベルにドラッグします。
-
MetaHuman の顔がはっきりと見えるまで、ビューポート内を移動します。
ビューポート内を移動する方法の詳細な情報が必要な場合は、Unreal Engine のドキュメントの「ビューポート制御」ページを参照してください。
-
iOS デバイスで、LiveLink Face アプリを開き、フロント カメラを顔に向けます。トラッキング メッシュが顔に重なり、表情や頭の動きに反応するはずです。
このスクリーンショットは、動作中のトラッキング メッシュを示しています。これは、Live Link アプリの設定から無効にできます。
最良の結果を得るには、顔の特徴が髪の毛や眼鏡などの付属品によって隠れることなく、顔が明るくはっきり見える状態にしてください。
ビューポート内の MetaHuman が、あなたの顔の表情や頭の動きに反応し始めるのを確認できます。
以下のビデオは、ビューポート内の MetaHuman を示しています。ビデオ内の頭の動きと表情は、Live Link を介して人の動きからリアルタイムで操作されています。
次のステップ
Live Link で接続できたら、シーケンサー と Take Recorder を使用して MetaHuman のフェイシャル アニメーションのレコーディングを開始できるようになります。開始方法の詳細については、以下の Unreal Engine ドキュメントのページを参照してください。