Utiliza Live Link en un dispositivo móvil para capturar animaciones faciales y aplicarlas a tus MetaHumans en Unreal Engine en tiempo real. Además de capturar el rendimiento facial, Live Link también envía la rotación de la cabeza a Unreal Engine, lo que permite un rango de movimiento más natural.
Configuración necesaria
Solo puedes utilizar la aplicación Live Link Face en un dispositivo móvil con iOS (iPhone o iPad) compatible con ARKit. Tu dispositivo debe tener una cámara TrueDepth, disponible en estos modelos:
- iPhone: iPhone X o modelos posteriores.
- iPad: iPad Pro (3.ª generación) o modelos posteriores.
Antes de que puedas seguir los pasos de esta guía, tienes que completar la siguiente configuración necesaria:
- En tu dispositivo móvil, descarga e instala la aplicación Live Link Face para Unreal Engine desde la App Store de Apple.
- Crea un nuevo proyecto de Unreal Engine. Puedes utilizar la plantilla que quieras, pero para obtener los mejores resultados, empieza con un nivel en blanco dentro de tu proyecto.
- Crea un MetaHuman con MetaHuman Creator.
- Descarga tu MetaHuman y expórtalo a Unreal Engine. Consulta la sección Downloading and Exporting MetaHumans si necesitas información adicional sobre cómo completar este paso.
- En el menú principal de Unreal Editor, ve a Editar > Complementos y asegúrate de que los siguientes complementos estén activados para tu proyecto:
- Live Link
- Live Link Control Rig
- Apple ARKit
- Apple ARKit Face Support
Estos complementos deberían activarse por defecto después de importar al menos un MetaHuman a tu proyecto.
- (Opcional) Añade tu MetaHuman al nivel. Esto facilitará la activación y previsualización de Live Link.
Cómo conectar Live Link a Unreal Engine
Sigue los pasos que se indican a continuación:
1. Encuentra la dirección IP de tu ordenador
La necesitas para configurar el enlace entre tu dispositivo iOS y la instancia de Unreal Engine que se ejecuta en tu ordenador.
En Windows, sigue estos pasos:
- Haz clic con el botón derecho del ratón en tu icono de conexión de la barra de tareas. A continuación, en el menú contextual, selecciona Configuración de red e internet.
-
Baja hasta la sección Propiedades (o haz clic en el botón Propiedades, según la versión de tu SO), y escribe o copia el valor Dirección IPv4.
En macOS, sigue estos pasos:
- Abre Preferencias del sistema (o Ajustes del sistema, según la versión de tu SO).
- Haz doble clic en el icono Red.
- Selecciona la red a la que estás conectado actualmente.
- Haz clic en el botón Avanzado.
-
En la ventana que se abre, haz clic en la pestaña TC/ICP y, a continuación, escribe o copia el valor Dirección IPv4.
2. Configura la aplicación Live Link
Configura Live Link en tu iPhone o iPad para empezar a utilizarlo con Unreal Editor.
Aunque Live Link requiere un dispositivo iOS, puedes trabajar en tu proyecto de Unreal tanto en Windows como en macOS.
- En tu dispositivo iOS, abre la aplicación Live Link Face.
- Toca Ajustes (icono de engranaje) en la esquina superior izquierda.
-
Selecciona Live Link y, a continuación, Añadir objetivo.
- En la pantalla Añadir objetivo, introduce la dirección IPv4 que anotaste antes.
- Toca Añadir en la esquina superior derecha.
- (Opcional) En el campo Nombre del sujeto, da a tu conexión de Live Link un nombre que sea fácil de reconocer.
Para confirmar que Live Link está conectado correctamente, en Unreal Engine, desde el menú principal, ve a Ventana > Producción virtual > Live Link. Se abrirá la ventana de ajustes de configuración de Live Link. Deberías ver tu iPhone o iPad en la lista como Fuente.

En este ejemplo, el teléfono «iPhoneChris» se reconoce como fuente de Live Link.
Cómo configurar el blueprint del MetaHuman
A continuación, tienes que configurar el blueprint del MetaHuman para que acepte datos de Live Link. Puedes hacerlo de dos maneras:
- Desde el visor de nivel
- Desde el blueprint del MetaHuman
Desde el visor de nivel
Si has añadido tu MetaHuman al visor de nivel, sigue estos pasos:
-
En el visor de nivel, haz clic en tu MetaHuman para seleccionarlo.
-
Con el blueprint del MetaHuman seleccionado, en el panel Detalles, configura los siguientes ajustes en la sección Live Link:
- Sujeto ARKit Face: selecciona tu dispositivo en el desplegable.
- Utilizar ARKit Face: activa esta opción.
Si también vas a capturar el movimiento del cuerpo utilizando una tecnología de captura de movimiento más avanzada, repite estos pasos para los ajustes Sujeto Live Link Body y Utilizar Live Link Body.
Desde el blueprint del MetaHuman
-
En el explorador de contenido, busca y abre el blueprint
BP_(MetaHumanName)
. En este tutorial utilizaremos el preajuste Taro, cuyo blueprint se denominaBP_Taro
. -
En el panel Componentes, selecciona el componente raíz. Se denomina
BP_(MetaHumanName)(Self)
. -
En el panel Detalles del componente BP(MetaHumanName)(Self), configura las siguientes propiedades:
- Sujeto ARKit Face: selecciona tu dispositivo en el desplegable.
- Utilizar ARKit Face: activa esta opción.
-
Compila y guarda el blueprint.
Cómo probar la conexión de Live Link
Ahora puedes probar la configuración de Live Link para ver si tu MetaHuman reacciona correctamente a los datos entrantes. Sigue estos pasos:
-
Si aún no lo has hecho arrastra el blueprint del MetaHuman al nivel desde el explorador de contenido.
-
Desplázate por el visor hasta que puedas ver claramente la cara del MetaHuman.
Si necesitas más información sobre cómo moverte por el visor, consulta la página Controles del visor en la documentación de Unreal Engine.
-
En tu dispositivo iOS, abre la aplicación LiveLink Face y apunta a tu cara con la cámara frontal. Deberías ver una malla de seguimiento superponerse a tu cara y reaccionar a tus expresiones y movimientos de cabeza.
Esta captura de pantalla muestra la malla de seguimiento en acción. Puedes desactivarlo desde la configuración de la aplicación Live Link.
Para obtener los mejores resultados, asegúrate de que los rasgos faciales no estén oscurecidos por el pelo o accesorios, como gafas, y de que la cara esté bien iluminada.
Deberías ver que el MetaHuman del visor empieza a reaccionar a tus expresiones faciales y movimientos de cabeza.
El vídeo siguiente muestra a un MetaHuman en el visor, cuyo movimiento de cabeza y expresiones son dirigidos en tiempo real por la actuación de un humano a través de Live Link.
Siguientes pasos
Con la conexión de Live Link ya establecida, puedes empezar a grabar animaciones faciales para tu MetaHuman utilizando Sequencer y la grabadora de tomas. Para obtener más información sobre cómo empezar, consulta las páginas siguientes de la documentación de Unreal Engine: