versión: 5.0 order: 3 type: tutorial topic-image: hero-image:
Usa Live Link en un dispositivo móvil para capturar la animación facial y aplicarla a tus MetaHumans en Unreal Engine en tiempo real. Además de capturar el movimiento facial, Live Link también envía la rotación de la cabeza a Unreal Engine, lo que permite un rango de movimiento más natural.
Configuración necesaria
Solo puedes utilizar la aplicación Live Link Face en un dispositivo móvil iOS (iPhone o iPad) compatible con ARKit. Tu dispositivo debe tener una cámara TrueDepth, disponible en estos modelos:
- iPhone: iPhone X o más reciente.
- iPad: iPad Pro (3.ª generación) o más reciente.
Antes de poder seguir los pasos de esta guía, debes completar la siguiente configuración necesaria:
- En tu dispositivo móvil, descarga e instala la aplicación Live Link Face para Unreal Engine desde la App Store de Apple.
- Crea un nuevo proyecto en Unreal Engine. Puedes usar cualquier plantilla que desees, pero para obtener los mejores resultados, comienza con un nivel vacío dentro de tu proyecto.
- Crea un MetaHuman en MetaHuman Creator.
- Descarga tu MetaHuman y expórtalo en Unreal Engine. Consulta la sección Cómo descargar y exportar MetaHumans si necesitas información adicional sobre cómo completar este paso.
- Desde el menú principal de Unreal Editor, ve a Editar > Complementos y asegúrate de que los complementos siguientes estén habilitados en tu proyecto:
- Live Link
- Live Link Control Rig
- Apple ARKit
- Apple ARKit Face Support
Estos complementos deberían habilitarse por defecto después de importar al menos un MetaHuman a tu proyecto.
- (Opcional) Añade tu MetaHuman al nivel. Esto hará más fácil habilitar y previsualizar Live Link.
Conectar Live Link a Unreal Engine
Sigue estos pasos:
1. Encuentra la dirección IP de tu computadora
Necesitas esto para configurar el enlace entre tu dispositivo iOS y la instancia de Unreal Engine que se ejecuta en tu computadora.
En Windows, sigue estos pasos:
- Haz clic con el botón derecho en el ícono de conexión de la barra de tareas. Luego, en el menú contextual, selecciona Abrir configuración de red e Internet.
-
Desplázate hasta la sección Propiedades (o haz clic en el botón Propiedades, según la versión de tu SO) y escribe o copia el valor de la dirección IPv4.
En macOS, sigue estos pasos:
- Abre las Preferencias del sistema.
- Haz doble clic en el ícono Red.
- Selecciona la Red a la que estés conectado actualmente.
- Haz clic en el botón Avanzado.
-
En la ventana que se abre, haz clic en la pestaña TC/ICP y, luego, escribe o copia el valor de la Dirección IPv4.
2. Configura la aplicación de Live Link
Configura Live Link en tu iPhone o iPad para empezar a usarlo con Unreal Editor.
Aunque Live Link requiere un dispositivo iOS, puedes trabajar en tu proyecto de Unreal tanto en Windows como en macOS.
- En tu dispositivo iOS, abre la aplicación Live Link Face.
- Presiona Configuración (ícono de engrane) en la esquina superior izquierda.
-
Selecciona Live Link, luego Añadir destino.
- En la pantalla Añadir destino, ingresa la dirección IPv4 que anotaste anteriormente.
- Presiona Añadir en la esquina superior derecha.
- (Opcional) En el campo Nombre de asunto, ponle a tu conexión con Live Link un nombre que sea fácil de reconocer.
Para confirmar que Live Link está conectado correctamente, en Unreal Engine, desde el menú principal, ve a Ventanas > Producción virtual > Live Link. Se abrirá la ventana de configuración de Live Link. Deberías ver tu iPhone o iPad en la lista como Fuente.

En este ejemplo, el teléfono "iPhoneChris" se reconoce como una fuente de Live Link.
Configurar el blueprint de MetaHuman
A continuación, es necesario configurar el blueprint de MetaHuman para que acepte datos de Live Link. Existen dos formas de hacerlo:
- Desde el visor del nivel
- Desde el blueprint de MetaHuman
Desde el visor del nivel
Si añadiste tu MetaHuman al visor del nivel, sigue estos pasos:
-
En el visor del nivel, haz clic en tu MetaHuman para seleccionarlo.
-
Con el blueprint de MetaHuman seleccionado, en el panel de detalles, configura los siguientes ajustes de la sección Live Link:
- Sujeto de cara de ARKit: selecciona tu dispositivo en el menú desplegable.
- Usar cara de ARKit: habilita esta opción.
Si también capturas el movimiento del cuerpo usando una tecnología MoCap más avanzada, repite estos pasos para los ajustes Sujeto de cuerpo de Live Link y Usar cuerpo de Live Link.
Desde el blueprint de MetaHuman
-
En el explorador de contenido, busca y abre el blueprint
BP_(MetaHumanName)
. Para este tutorial, usaremos el prestablecido Taro, cuyo blueprint se llamaBP_Taro
. -
En el panel de componentes, selecciona el componente raíz. Se llama
BP_(MetaHumanName)(Self)
. -
En el panel de detalles del componente BP(MetaHumanName)(Self), configura las siguientes propiedades.
- Sujeto de cara de ARKit: selecciona tu dispositivo en el menú desplegable.
- Usar cara de ARKit: habilita esta opción.
-
Compila y guarda el blueprint.
Probar la conexión a Live Link
Ahora puedes probar tu configuración de Live Link para ver si tu MetaHuman reacciona correctamente a los datos ingresados. Sigue estos pasos:
-
Si aún no lo hiciste, desde el explorador de contenido, arrastra el blueprint de MetaHuman al nivel.
-
Muévete por el visor hasta que puedas ver claramente la cara del MetaHuman.
Si necesitas más información sobre cómo moverte por el visor, consulta la página Controles del visor en la documentación de Unreal Engine.
-
En tu dispositivo iOS, abre la aplicación Live Link Face y apunta la cámara frontal a tu cara. Deberías ver una malla de seguimiento que se superpone a tu cara y reacciona a tus expresiones y movimientos de cabeza.
Esta captura de pantalla muestra la malla de seguimiento en acción. Puedes desactivarla en la configuración de la aplicación Live Link.
Para obtener los mejores resultados, asegúrate de que el pelo o los accesorios, como las gafas, no ocultan tus rasgos faciales y de que tu cara está bien iluminada.
Deberías ver cómo el MetaHuman en tu visor comienza a reaccionar a tus expresiones faciales y movimientos de cabeza.
El siguiente video muestra un MetaHuman en el visor cuyos movimientos de cabeza y expresiones son controlados en tiempo real por el movimiento de una persona a través de Live Link.
Próximos pasos
Con la conexión a Live Link ya establecida, puedes empezar a grabar animaciones faciales para tu MetaHuman utilizando Sequencer y la grabadora de tomas. Para obtener más información sobre cómo empezar, consulta las páginas siguientes de la documentación de Unreal Engine: