モノラル動画デバイスからリアルタイム アニメーションを生成するには、Live Link で MetaHuman Video ソースを作成し、新しいサブジェクトを設定する必要があります。
この機能がサポートされているのは Windows 上のみです。
MetaHuman Video Live Link ソースを作成する
[Add Source (ソースを追加)] をクリックし、[MetaHuman (Video) (MetaHuman (動画))] オプションを選択します。
新規作成されたソースを選択すると、右側のパネルに Live Link ソースの設定が表示されます。
[Create (作成)] セクションの [Video Device (動画デバイス)] で利用可能な動画デバイスを選択します。
[Video Format (動画形式)] で希望する形式を選択します。 この値によって、動画をキャプチャするフレーム レートと解像度が決まります。 カメラが対応している最高フレームレートの形式を選択し、そのフレームレートでサポートされる最高解像度を選択するようお勧めします。
必要に応じて、[Subject Name (サブジェクト名)] を指定します。 これは Live Link アニメーション入力の MetaHuman を設定するときに使用されます。 指定しない場合は動画デバイス名が使用されます。
(任意) [Advanced (詳細)] を次のように設定します。
設定 説明 Video Track (動画トラック)
デバイスが複数の動画トラックをサポートしている場合に、使用されるアクティブな動画トラック。 デフォルトでは最適な動画トラックが自動的に選択されます。
Filter Format List (形式リストをフィルタ)
有効にすると、動画形式リストがフィルタリングされ、リアルタイム アニメーション処理に適した形式のみが表示されます。 解像度が 500x500 または 24 fps 未満の形式は削除されます。
開始タイムアウト
[Connect (接続)] を押してからウェブカメラが開くのを待機する際のタイムアウト。 この時間内にウェブカメラが応答しない場合はエラーとなり、リアルタイム アニメーションを利用できません。
形式変更の待機時間
選択された使用動画形式をウェブカメラが認識するまでの待機時間。
サンプルのタイムアウト
ウェブカメラから最初の動画フレームが到着するまでの待機時間。
[Connect] をクリックします。 カメラの動画ストリーミングが開始され、選択したサブジェクト名でサブジェクトが作成されます。
正常に接続されると、利用可能なサブジェクトのリストに新規サブジェクトが表示されます。これには正常に動作していることを示す緑色のチェックマークが付いています。 カメラに顔が映らないと、警告を示すオレンジ色の三角形が表示される場合があります。
メディア バンドルを動画デバイスとして使用する
プロジェクト内のメディア バンドル アセットは、動画デバイスとして表示されます。ムービー ファイルや画像シーケンスをストリーミングしたり、キャプチャ カードから読み込んだりして、動画ソースとして使用できます。 ウェブカメラと同様にサポートされています。
MetaHuman Video Live Link サブジェクトを設定する
リスト内の新規サブジェクトを選択すると、サブジェクト設定が表示され、[Monitor Image (モニター画像)] セクションでカメラ フィードを確認できます。
[Monitor Image] の代わりとなるオプションは次のとおりです。
[None (なし)]:画像なし。
[Input (入力)]:raw 映像。
[Trackers (トラッカー)]:トラッキング マーカーがオーバーレイされた映像。 アニメーションの解決が安定しているかを分析するときに便利です。
動画フィードのモニタリングには、計算負荷がかかります。 パフォーマンスを最優先する場合、特にウェブカメラのフレーム レートが高い場合やシーンの負荷が高い場合は、この機能を多用しないようお勧めします。
このコントロールのデフォルト値は [Project Preferences (プロジェクト環境設定)] で設定できます。
[Information (情報)] セクションには、アニメーション解決プロセスの詳細が表示されます。
| 情報 | 説明 |
|---|---|
State (ステート) | 処理の状態の概要。 「OK」は良好な状態を示します。一方、「顔が検出されませんでした」などのメッセージは、内容が示すとおり問題があることを示します。 状態は LED のようなインジケータでも表示され、良好な場合は緑色、条件は理想的ではないがアニメーション生成は可能な場合 (例: カメラから被写体が遠い、低照度) は黄色、一時的な問題でアニメーション生成に失敗した場合 (例: 顔が検出されなかった) はオレンジ色、修復不能な障害 (例: ウェブカメラが切断された) の場合は赤色になります。 |
解像度 | 入力動画の解像度。 |
Dropping (ドロップ) | 処理速度が不十分なため動画フレームがドロップされているかどうか。 理想的には「No (いいえ)」と表示されます。「Yes (はい)」と表示される場合は、ウェブカメラの実行速度が処理速度を上回り、処理が映像に遅れないよう動画フレームがドロップされています。 2 秒間にドロップされたフレーム数が表示されます。 |
FPS | 処理のフレーム レート。 フレームがドロップされている場合、この数値はウェブカメラのフレーム レート以下になることがあります。処理レートがウェブカメラのフレーム レートと一致しない場合は、両方のレートが表示されます。 |
タイムコード | 処理されているフレームのタイムコード。 タイムコードはデバイス自体から取得できます。デバイスから取得できない場合は、システム クロックから取得できます。 |
設定が完了すると、新規サブジェクトを使用して MetaHuman キャラクターをアニメートできるようになります。 設定オプションの詳細については、「MetaHuman Video サブジェクトを設定する」を参照してください。
パフォーマンスに関するトラブルシューティング
ウェブカメラ使用時にアニメーションが低速になった場合は、Live Link サブジェクトのプロパティを開いて [Dropping] フィールドを確認してください。 [Yes] になっている場合は、ウェブカメラの実行速度が処理を上回り、処理が映像に遅れないよう動画フレームがドロップされています。 処理速度を向上するには、マシンの負荷を軽減する必要があります。 たとえば、プロジェクト設定でスケーラビリティの設定を下げたり、シーンを簡素化したり、シーンのフレーム レートを固定したりします。
ここで気をつけなくてはならないのは、Live Link ハブでリアルタイム アニメーションを実行している場合、Live Link ハブの処理と UE の処理の競合により、アニメーション速度が低下する可能性がある点です。 詳細については、「Live Link ハブで実行する」セクションを参照してください。
[Dropping] フィールドが「No」であれば、アニメーションはウェブカメラのフレーム レート以下に収まっています。 ウェブカメラの実際のフレーム レートは、想定よりも低くなる場合があります。 ウェブカメラから特定のフレーム レートを指定した場合でも、それは最大値であり、実際のフレーム レートは多くの要因に左右されます。 中継機やハブを使うと速度に影響することがあるため、ウェブカメラは直接コンピュータに接続してください。 また、お使いのウェブカメラとコンピュータが対応している最高速度の USB ケーブルとポートを使用し、最大限の帯域幅を確保してください。
照明がフレーム レートに影響する場合があります。 低照度環境では、明るい画像にするためにウェブカメラの露出時間を長くする必要があり、それがフレーム レートに影響します。 十分な明るさを確保してください。 リングライトが理想的です。 (暗いと、低フレーム レート以外のマイナスの影響も起こります。たとえばカメラが高ゲインになり、画像にノイズが増えたりアニメーションにジッターが発生したりします。)