메타휴먼 애니메이터는 다양한 비디오 및 오디오 디바이스에서 캡처한 페이셜 퍼포먼스에서 메타휴먼 캐릭터 애니메이션을 생성하는 데 사용할 수 있습니다. 다음 세 가지 방식으로 애니메이션을 생성할 수 있습니다.
모노 비디오 카메라(웹캠 포함), 모바일 디바이스(라이브 링크 페이스 앱 사용) 또는 오디오 소스를 사용하여 실시간으로 생성합니다.
iOS 디바이스의 TrueDepth 카메라 또는 스테레오 헤드 마운트 카메라(Head-Mounted Camera, HMC)에서 캡처한 뎁스 데이터를 사용하여 오프라인으로 생성합니다.
모노 비디오 또는 오디오를 사용하여 오프라인으로 생성합니다.
리얼타임 애니메이션 퀵스타트
웹캠에서 리얼타임으로 레벨에 추가된 어셈블된 메타휴먼 캐릭터를 애니메이팅하려면 다음 단계를 따릅니다.
메타휴먼 라이브 링크 플러그인을 활성화합니다.
라이브 링크 창을 열고 새 메타휴먼 비디오 소스 및 서브젝트를 추가합니다.
어셈블된 메타휴먼 캐릭터의 캐릭터 블루프린트를 레벨에 추가합니다.
레벨 내 캐릭터의 디테일(Details) 패널에서 라이브 링크 섹션으로 이동하고 2단계에서 생성한 라이브 링크 서브젝트를 선택합니다.
캐릭터가 페이셜 퍼포먼스를 기반으로 애니메이팅되기 시작합니다.
오디오 기반 애니메이션 퀵스타트
오디오에서 오프라인으로 애니메이션을 생성하려면 다음 단계를 따릅니다.
메타휴먼 애니메이터 플러그인을 활성화합니다.
테이크 레코더를 사용하거나 기존 오디오 파일에서 임포트하여 새 사운드 웨이브 에셋을 생성합니다.
메타휴먼 퍼포먼스 에셋의 새 인스턴스를 생성합니다.
에셋을 더블클릭하여 메타휴먼 퍼포먼스 에셋 에디터를 엽니다.
입력 타입(Input Type)으로 오디오(Audio)를 선택하고 오디오 필드에서 사운드 웨이브 에셋을 선택합니다.
처리(Process)를 클릭합니다.
다음 단계
다음 페이지에서는 MHA로 사용할 수 있는 다양한 애니메이션 소스와 옵션을 안내해 드리며, 이를 통해 창작물을 생동감 있게 연출하는 방법을 안내합니다.
MHA 시작하기
언리얼 엔진에서 메타휴먼 애니메이터를 사용하려면 하나 이상의 플러그인을 활성화해야 합니다.
권장되는 언리얼 엔진 프로젝트 세팅
다음은 메타휴먼 애니메이터를 사용할 때 권장되는 프로젝트 세팅입니다.
페이셜 연기 캡처 가이드라인
메타휴먼 애니메이터에서 사용할 페이셜 퍼포먼스를 캡처하기 위한 가이드라인과 모범 사례를 살펴봅니다.
리얼타임 애니메이션
웹캠을 포함한 모노 카메라, 지원되는 모바일 디바이스 또는 오디오 소스를 통해 메타휴먼을 실시간으로 애니메이팅할 수 있습니다.
뎁스 데이터에서 애니메이션 생성
iPhone 또는 iPad의 TrueDepth 카메라나 스테레오 헤드 마운트 카메라(Head-Mounted Camera, HMC)를 사용하여 캡처한 뎁스 데이터를 통해 메타휴먼 캐릭터를 애니메이팅하는 방법을 살펴봅니다.
모노 비디오에서 애니메이션 생성
모노 비디오에서 메타휴먼을 애니메이팅하는 방법을 살펴봅니다.
오디오 기반 애니메이션
오디오를 메타휴먼의 사실적인 페이셜 애니메이션으로 처리하는 방법을 알아봅니다.
메타휴먼 애니메이터용 Python 스크립팅
Python API와 예제 스크립트를 사용하여 메타휴먼 애니메이터를 자동화할 수 있습니다.
메시 투 메타휴먼
메시 또는 비디오 영상에서 메타휴먼 아이덴티티를 생성하는 방법을 살펴봅니다.
에셋 레퍼런스
메타휴먼 애니메이터에서 사용하는 에셋에 대한 보다 자세한 레퍼런스를 제공합니다.