Introducción
En esta página se ofrece un resumen completo de los principales sistemas y flujos de trabajo de Unreal Engine, y de qué manera se comparan con los editores, las herramientas y los tipos de recurso de uso común de Unity. Este documento se diseñó a fin de ayudar a los desarrolladores de Unity a entender cómo realizar flujos de trabajo familiares en Unreal Engine. Puedes obtener más información sobre cada función accediendo a los enlaces de cada sección.
En esta página se refiere herramientas y características basadas en las versiones Unreal Engine 5.5.4 y Unity 6 (6000.0.30f1). Las referencias a características podrían ser diferentes en otras versiones de cualquiera de los dos motores.
Jugabilidad
Física
Para obtener un resumen más detallado de las características de la Física de Chaos, consulta la documentación Physics (Física).
Motor de físicas
Unreal Engine incluye Física de Chaos, una solución de simulación de física ligera que se crea desde cero cumplir con los estándares de los juegos de nueva generación. Física de Chaos ofrece muchas características como destrucción, física en red, física de cuerpo rígido, vehículos y más.
El motor de físicas por defecto de Unity para juegos 3D es NVIDIA PhysX, que incluye muchas características similares a Física de Chaos
Destrucción de Chaos
El sistema Destrucción de Chaos es un conjunto de herramientas de Unreal Engine que puede utilizarse para obtener niveles de destrucción de calidad cinemática en tiempo real. Además de un aspecto visual espectacular, el sistema está optimizado para mejorar el rendimiento y ofrece a los artistas y diseñadores un mayor control sobre la creación de contenidos.
El sistema de Destrucción de Chaos utiliza Colecciones geométricas, un tipo de recurso construido a partir de una o más mallas estáticas, incluidas las anidadas en blueprints. Estas colecciones geométricas se pueden fracturar para lograr la destrucción en tiempo real.
El sistema facilita un control sin precedentes sobre el proceso de fractura mediante un flujo de trabajo intuitivo y no lineal. El usuario puede crear varios niveles de fractura, así como fractura selectiva en partes de la colección geométrica, para un mayor control artístico. Los usuarios también pueden definir los umbrales de daño por clúster que activan una fractura.
Para obtener más información sobre la Destrucción de Chaos consulta la documentación Chaos Destruction.
Física en red
La creación de redes o replicación en los juegos remite a la capacidad de comunicar información de juego entre varias máquinas a través de una conexión a Internet. Unreal Engine dispone de un marco de trabajo en red estable que facilita a los desarrolladores la creación de juegos multijugador.
La física en red forma parte del marco de trabajo en red y permite que las simulaciones basadas en la física funcionen en un entorno multijugador. En Unreal Engine, la replicación de física hace referencia a actores con movimiento replicado que simulan la física. Estas simulaciones se ejecutan dentro del cliente local (la máquina del jugador) durante el juego.
You can learn more about Networked Physics by reading the Networked Physics documentation.
Dinámica de cuerpo rígido
La Física de Chaos brinda muchas características para las dinámicas de cuerpos rígidos. Esto incluye las respuestas a colisiones, el rastreo, las restricciones físicas, la amortiguación y fricción.
Colisión
En Unreal Engine, la colisión se encuentra presente en la mayoría de los componentes de actor que utilizan el motor de física. Los ajustes de colisión de un actor pueden modificarse en la sección Colisión del panel de detalles. Por ejemplo, puedes habilitar Simulación genera eventos de impacto para permitir que el objeto inicie eventos de Impacto a los que puedes acceder a través de blueprints o un código para detectar colisiones. Esto se asemeja al manejo de colisiones en Unity al aplicar OnCollisionEnter en C# o secuenciación de comandos visual
Para obtener más información sobre cómo configurar colisiones para tus actores, consulta la documentación Collision (Colisión).
Rastros con proyecciones de rayos
El sistema de Física de Chaos incluye una variedad de métodos de rastreo. Los rastros ofrecen un método para recopilar información externa a un actor. Esta información puede utilizarse en tiempo de ejecución a fin de reaccionar a las condiciones cambiantes del juego.
Hay diferentes opciones disponibles cuando se ejecuta un rastro. Puedes utilizar diferentes tipos de rastro como línea, esfera, caja o cápsula. También puedes rastrear para impactos únicos o múltiples, e incluso rastrear para tipos de objetos específicos o canales de colisión.
El sistema de rastreo en Unreal es similar al sistema de proyección de rayos de Unity.
Para obtener más información sobre rastreo, consulta la documentación Traces with Raycasts (Rastros con proyecciones de rayos).
Tela de Chaos
La tela de Chaos ofrece una simulación de ropa precisa y eficiente para experiencia en tiempo real y de jugabilidad. El sistema incluye amplios controles de usuario, junto con reacciones físicas como el viento, para lograr una visión artística específica. Además, la tela de Chaos incluye un potente sistema de animación, que deforma una malla de tela para que coincida con la malla esquelética animada de su base.
La tela de Chaos también ofrece una simulación de tela mediante machine learning. Este sistema ofrece una simulación de mayor fidelidad en comparación con un modelo tradicional basado en la física mediante el uso de un conjunto de datos entrenados que se pueden utilizar en tiempo real para obtener resultados que antes solo se podían lograr con la simulación sin conexión.
Para obtener más información sobre la tela de Chaos, consulta la documentación Chaos Cloth (Tela de Chaos):
Vehículos de Chaos
Vehículos de Chaos es el sistema ligero de Unreal Engine para realizar simulaciones físicas de vehículos. Este sistema ofrece más flexibilidad al usuario simulando cualquier cantidad de ruedas por vehículo. También se puede configurar cualquier cantidad de marchas adelante y atrás para una mayor personalización.
Los vehículos de Chaos pueden configurarse para simulaciones complejas de vehículos. Puedes añadir cualquier cantidad de superficies aerodinámicas que den fuerza descendente o ascendente en ubicaciones específicas del chasis. Pueden simular alerones de vehículos, o incluso alas o timones de aviones. Cada una de estas superficies de control puede manipularse mediante alabeo, cabeceo y guiñada.
Para obtener más información sobre vehículos de Chaos, consulta la documentación Chaos Vehicles (Vehículos de Chaos):
Simulación de fluidos
Unreal Engine incluye un conjunto de herramientas integradas para simular efectos de fluidos 2D y 3D en tiempo real. Estos sistemas utilizan métodos de simulación basados en la física para producir efectos realistas de elementos como fuego, humo, nubes, ríos, salpicaduras y olas rompiendo en una playa.
El conjunto de herramientas está diseñó como una plataforma abierta para la experimentación mediante el uso de etapas de simulación, módulos reutilizables e interfaces de datos sólidas.
Para obtener más información sobre simulaciones de fluidos, consulta la documentación Fluid Simulation (Simulación de fluidos).
Inteligencia artificial
Unreal Engine incluye una variedad de sistemas para crear y gestionar agentes de IA (PNJ) durante el juego.
Cómo simular agentes de IA en escala
MassEntity es un marco de trabajo centrado en la jugabilidad y diseñado para simulaciones de alto rendimiento orientadas a datos. MassEntity puede utilizarse para gestionar y renderizar de forma eficiente un gran número de entidades en pantalla.
Para obtener más información, consulta la documentación MassEntity.
Cómo simular la conducta de un agente de IA
Unreal Engine incorpora las funciones de agentes de IA en las siguientes categorías: percepción y estímulos, toma de decisiones, navegación por el entorno e interacciones con el entorno. Cada categoría posee uno o más sistemas que ayudan a conseguir los resultados deseados.
Percepción y estímulos
En el área de percepción y estímulos, Unreal Engine incluye sentidos del peón, emisor de ruidos de peón, y componentes de percepción de IA.
La Percepción de IA se puede utilizar para definir y controlar a qué sentidos tiene acceso un agente de IA. El AI Perception Component es un tipo de componente que puede añadirse al blueprint de AIController de un peón desde la ventana de componentes y se utiliza para definir qué sentidos se deben escuchar, los parámetros de esos sentidos y cómo responder cuando se detecta un sentido.
También puedes utilizar varias funciones diferentes para obtener información sobre lo que se detectó, qué actores se detectaron, o incluso cambiar un tipo particular de detección.
Para obtener más información, consulta la documentación AI Perception (Percepción de IA).
Toma de decisiones
En el área de toma de decisiones, Unreal Engine incluye árboles de comportamiento y State Trees. Estos recursos contienen la lógica que los agentes de IA utilizan para tomar decisiones durante el juego.
Los recursos de árbol de comportamiento incluyen un gráfico de decisión con una variedad de nodos que contienen la lógica que el agente de IA puede ejecutar. El árbol comienza en la raíz y ejecuta ciertos nodos según los datos almacenados en un recurso de pizarrón u otros datos procedentes del propio agente. Los árboles de comportamiento ofrecen una forma intuitiva de visualizar cómo los agentes de IA toman decisiones y pueden configurarse para ser reutilizables y flexibles.
Para obtener más información, consulta la documentación Behavior Trees (Árbol de comportamiento):
StateTree es un autómata finito jerárquico de fin general que combina los selectores de los árboles de comportamiento con los estados y transiciones de las máquinas de estados. StateTree se puede utilizar para crear una lógica de alto rendimiento que se mantiene flexible y organizada.
Para obtener más información, consulta la documentación State Tree.
Navegación por el entorno
En el área de navegación por el entorno, Unreal Engine incluye un sistema de navegación completo para agentes de IA
El Sistema de navegación ofrece capacidades eficaces de búsqueda de rutas a los agentes de IA de tu proyecto. Puedes crear un actor de malla de navegación en tu nivel para compilar y mapear la navegación de tus agentes. También puedes usar Modificadores de la malla de navegación y Áreas de navegación personalizadas para afectar al costo de atravesar ciertas áreas e influir activamente en cómo los agentes de IA eligen su ruta de navegación óptima hacia su objetivo.
Además, el sistema incluye dos sistemas de evasión: obstáculos de velocidad recíproca y administrador de desvío de la multitud a fin de ayudar a los agentes de IA a evitar los elementos dinámicos en su entorno y entre sí.
Para obtener más información, consulta la documentación Navigation System (sistema de navegación):
Interacciones con el entorno
En el área de interacciones con el entorno, Unreal Engine incluye Smart Objects.
Los Smart Objects son objetos que se colocan en un nivel con los cuales los agentes de IA y los personajes pueden interactuar. Estos objetos contienen toda la información necesaria para esas interacciones. Los Smart Objects forman parte de una base de datos global y utilizan una estructura de partición espacial. Esto significa que se pueden consultar en tiempo de ejecución aplicando filtros como el área de búsqueda alrededor del agente y las etiquetas de juego.
Para obtener más información, consulta la documentación Smart Object:
Machine learning
Para diseñar soluciones de IA más complejas en las que los agentes de IA puedan aprender y adaptarse, Unreal Engine ofrece el complemento Agentes de aprendizaje, que puede utilizarse para entrenar agentes de IA mediante algoritmos como el aprendizaje por refuerzo. Es el equivalente en Unreal Engine del paquete MLAgents de Unity.
Para obtener más información, consulta la documentación Learning agents (Agentes de aprendizaje):
Cómo animar personajes y objetos
Los blueprints de animación son el equivalente en Unreal Engine de los controladores de animación de Unity. Los blueprints de animación incluyen un gráfico de animación y un gráfico de eventos de plano estándar, que brindan un medio para definir parámetros y secuencias de comandos de comportamientos de animación complejos y lógica en un único punto de entrada.
Para obtener más información, consulta Animation Blueprints (Blueprints de animación). sobre Niagara.
Si prefieres organizar las animaciones con un autómata finito, puedes crear nodos State Machine en tu gráfico de animación y, a continuación, hacer doble clic en ellos para abrir sus propios subgráficos especializados. A continuación, puedes crear nuevos estados, conductos y alias de estado, y crear conexiones entre ellos. Cada estado incluye su propio gráfico de animación que controla la salida del estado y las conexiones controlan las transiciones entre ellos.
Para obtener más información, consulta la documentación State Machines (Autómata finito):
Los espacios de integración definen un gráfico de animaciones que se integran en base a parámetros. Por ejemplo, un espacio de integración 2D puede integrar animaciones de caminar hacia adelante, hacia atrás, a la izquierda y a la derecha en base a la velocidad y la orientación de un personaje.
Para obtener más información, consulta Blend Spaces (Espacios de integración).
Unity utiliza la herramienta Línea de tiempo para animar secuencias cinemáticas El editor Sequencer es el equivalente de Unreal Engine a la Línea de tiempo de Unity y brinda una interfaz similar a un editor no lineal para la coordinación de animaciones, efectos y movimientos de cámara. Puedes utilizar Sequencer para definir secuencias de nivel, que representan cinemáticas, o animaciones independientes para personajes y objetos.
Para obtener más información sobre la creación de secuencias, consulta la documentación Sequencer Editor (Editor Sequencer).
Unreal Engine también incluye el Sistema de rig de control que puede utilizarse para hacer rig a las mallas esqueléticas para la animación directamente en el editor. Con este rig de control, puedes crear y manipular controles personalizados del rig en un personaje, animado con Sequencer y utilizar una variedad de otras herramientas de animación para ayudarte en el proceso de animación.
Para obtener más información sobre rigging en Unreal Engine, consulta la documentación Control Rig (Rig de control).
Para capturar y exportar secuencias de imagen y video dentro del Unreal Editor, puedes utilizar Movie Render Queue. Este es el equivalente de la herramienta Grabador de Unity. Movie Render Queue se puede utilizar para renderizar y exportar secuencias fotograma a fotograma, imágenes del juego o grabaciones de video sin perder la calidad.
Para obtener más información sobre Movie Render Queue, consulta la documentación Rendering High Quality Frames with Movie Render Queue (Renderización de fotogramas de alta calidad con Movie Render Queue).
Marco de jugabilidad
El marco de jugabilidad en Unreal Engine es una colección de clases que ofrece una base en módulos sobre la que puedes construir tu experiencia de juego, como el modo de juego, el estado del jugador, los controladores, los peones, y las cámaras.
En Unity, las estructuras similares se controlan mediante componentes como CharacterController y scripts MonoBehaviour adjuntos a GameObjects para la definición de comportamientos.
Para obtener más información sobre el aprovechamiento de los marcos de jugabilidad, consulte la documentación Gameplay Framework (Marco de jugabilidad).
Entrada
El Sistema de entrada mejorado está diseñado para controlar la entrada del jugador a través de varios dispositivos, incluyendo teclados, controles y pantallas táctiles.
Puedes definir acciones de entrada (para acciones como saltar y disparar) y ejes de entrada (para entradas continuas como movimiento o rotación de cámara). Estas acciones y ejes pueden vincularse a teclas específicas, botones o incluso gestos táctiles, lo que ofrece un alto grado de personalización.
Para empezar a utilizar el sistema de entrada mejorado, puedes crear recursos de entrada mejorados desde el explorador de contenido si pulsas el botón + Añadir, y seleccionas Entrada. Estos recursos pueden configurarse para definir los atajos de teclado y entradas para tu juego.
Puedes vincular estas acciones y ejes a los eventos de entrada del jugador en la lógica de tu juego. El sistema puede utilizarse para gestionar diferentes esquemas de entrada (por ejemplo, teclado contra control) y ofrece una forma de definir esquemas de control complejos.
Los desarrolladores de Unity pueden estar familiarizados con el sistema de entrada de Unity, similar en función al sistema de entrada mejorado de Unreal Engine. In Unreal Engine, Enhanced Input is the standard for complex input handling or runtime control remapping.
Para obtener más información sobre la definición de entrada en tu proyecto, consulta la documentación Enhanced Input (Entrada mejorada).
Creación y diseño del entorno
La funcionalidad para la construcción de entornos en Unreal Engine se divide en diferentes modos de editor en el visor de nivel.
Modelado y creación de prototipos de niveles
El modo de modelado ofrece una función similar a la extensión ProBuilder de Unity, con amplias herramientas de edición de vértices, bordes, caras y UV similares a las que utilizarías en un programa de modelado.
Haz clic en el menú desplegable Modos en el visor y selecciona Modelado para activar el modo de modelado.
Para obtener más información sobre modelado en Unreal Engine, consulta la documentación Descripción general del modo de modelado (Presentación del modo de modelado).
Cómo crear un terreno o paisaje personalizado
El modo terreno brinda una función similar al sistema de Terreno de Unity. Puedes utilizar el modo terreno para crear un paisaje y darle forma a través de una suite de herramientas similar al sistema Terreno de Unity, como elevar, bajar y aplanar.
Haz clic en el menú desplegable Modos en el visor y selecciona Terreno para activar el modo terreno.
Para obtener más información, consulta la documentación Landscape Quick Start Guide (Guía de inicio rápido de terreno). Además, consulta la documentación
Follaje
El modo de follaje es similar al sistema de Terreno de Unity para añadir y gestionar el follaje. En el modo de follaje, puedes pintar árboles, césped y demás vegetaciones en tu nivel, modificando las propiedades como la densidad, la altura y la rotación de cada pieza.
Una diferencia clave con el sistema de terreno de Unity es que el modo de follaje de Unreal Engine se puede utilizar para pintar follaje en cualquier objeto, no solo en el terreno. Este modo ofrece una forma intuitiva de completar tu entorno con elementos naturales, a la vez que te da el control sobre cómo se muestran en el terreno o en cualquier superficie de tu nivel.
Haz clic en el menú desplegable Modos en el visor y selecciona Follaje para activar el modo de follaje.
Para obtener más información, consulta la documentación Foliage mode (Modo de follaje). Además, puedes utilizar la documentación Open World Tools (Herramientas de entorno abierto) para obtener más información sobre el relleno procedimental de grandes espacios con recursos de malla estática para crear espacios exteriores que parezcan naturales y vivos.
Generación procedimental de contenido (PCG)
El marco de Generación procedimental de contenido (PCG) es un conjunto de herramientas para la creación de contenido procedimental dentro de Unreal Engine. Los artistas y diseñadores pueden utilizar PCG para crear herramientas y contenido rápidos e iterativos de cualquier complejidad, desde utilidades de recursos, como edificios o generación de biomas, hasta entornos enteros.
PCG está diseñado para la extensibilidad y la interactividad, lo que facilita la integración en las pipelines de construcción de entornos existentes, fusionando con éxito las líneas entre los flujos de trabajo procedimentales y tradicionales.
Para obtener más información sobre la creación procedimental de contenido en Unreal Engine, consulta la documentación Procedural Content Generation Framework (Marco de generación procedimental de contenido).
Sistema de agua
El sistema de agua se puede utilizar para crear ríos, lagos y océanos que interactúen y trabajen conjuntamente con tus terrenos mediante un flujo de trabajo basado en ranuras.
Los desarrolladores de Unity pueden estar familiarizados con el sistema de agua disponible para proyectos que utilizan HDRP. El sistema de agua en Unreal Engine es escalable para ajustarse a proyectos de todos los tamaños y soporta todas las plataformas.
Para obtener más información sobre cómo habilitar agua en tus niveles, consulta la documentación Sistema de agua.
Elementos visuales y renderizaciones
Unity utiliza el Sistema de pipeline de renderizador programable (SRP) y brinda plantillas como el Pipeline de renderizador de alta definición (HDRP). Unreal Engine dispone de un pipeline renderizador unificado, sólido y altamente personalizable. Esto significa que el soporte de dispositivos, la funcionalidad y el conjunto de características se dividen entre las plantillas.
En Unreal Engine, puedes utilizar la Configuración de escalabilidad a fin de cambiar la fidelidad visual de tu juego. Para obtener más información al respecto, consulta la documentación Scalability Reference (Referencia de escalabilidad).
Fuentes de luz
Los flujos de trabajo de iluminación en Unreal Engine son similares a los de Unity. Puedes añadir o quitar luces a los niveles, y tienes varios tipos de fuentes de luz que puedes utilizar, como luces direccionales, puntuales y focales.
Si vas a Crear > Luz, puedes elegir la forma de la fuente de luz que quieres añadir a tu nivel. Esto creará un nuevo objeto. Para obtener más información sobre los tipos de luz y su uso, consulta la documentación Tipos de luces y su movilidad.
Luz cenital
La luz cenital captura las partes lejanas de tu nivel y las aplica a la escena como una luz. Esto significa que la apariencia del cielo y su iluminación o sus reflejos coincidirán, incluso si tu cielo proviene de la atmósfera, o de nubes en capas encima de una textura de cielo, o de montañas lejanas.
Un nuevo nivel en Unreal Engine, por defecto, posee una carpeta Iluminación en el panel del esquematizador. Esta carpeta contiene un conjunto predeterminado de objetos de iluminación, como un DirectionalLight, ExperimentalHeightFog y un SkyLight. Para obtener más información, consulta la documentación Sky Lights (Luz cenital).
Reflejos e iluminación global de Lumen
Lumen es el sistema de iluminación global y reflejos totalmente dinámico de Unreal Engine que está diseñado para dispositivos de la próxima generación, y es el sistema de iluminación global y reflejos predeterminado. Esto significa que la luz rebota e interactúa con las superficies, y así, crea una iluminación de aspecto natural, de forma instantánea, sin necesidad de hacer bake en la iluminación a través de flujos de trabajo precomputados.
Para obtener más información sobre el uso de la iluminación global dinámica y los reflejos en tu proyecto, consulta la documentación Reflejos e iluminación global de Lumen.
Posprocesamiento
En Unity, el posprocesamiento se controla a través de Volúmenes. Después de crear un GameObject con un Volume component, puedes asignar un perfil de posprocesamiento, y establecer si es global o local.
En Unreal Engine, el posprocesamiento se gestiona principalmente con volúmenes colocados. Sin embargo, también puede aplicarse de estas otras maneras. En general, el posprocesamiento funciona de forma similar, y permite anular valores predeterminados.
| Formas de aplicar el posprocesamiento | Descripción |
|---|---|
Configuración del proyecto | De forma predeterminada, Unreal Engine aplica un conjunto de efectos de posprocesamiento al juego basado en la configuración de escalabilidad. Estas configuraciones se aplican a nivel de proyecto, a menos que se anulen. Puedes cambiar los efectos de posprocesamiento predeterminados que se aplican al proyecto desde Configuración del proyecto > Motor > Renderizado. |
Componente de cámara | Cada componente de cámara tiene su propio conjunto de configuraciones de posprocesamiento que se pueden anular. Estas funcionan de forma individual por cámara, lo que significa que las cámaras que no anulan ninguna configuración aplicarán los efectos predeterminados definidos en la configuración de proyecto o los valores de un volumen colocado. |
Volumen de posprocesamiento | Se puede añadir un Volumen de posprocesamiento a un nivel desde Añadir > Volumen. Esto crea un nuevo actor de nivel que anula los ajustes de posprocesamiento predeterminados, similar al Volume component en Unity. Estos volúmenes pueden aplicar posprocesamiento cuando la cámara del jugador está dentro del volumen, o pueden aplicar anulaciones globales a todo el nivel si la configuración Alcance infinito (sin límites) está habilitada. Esto funciona de forma similar a la opción Modo global del sistema de volúmenes de Unity. |
Materiales
Unity usa Shader Graph para definir nuevos shaderes. El equivalente en Unreal Engine es el Sistema de materiales. Los shaderes y los materiales en Unreal Engine se diferencian entre sí de las siguientes maneras:
Un shader es una construcción de bajo nivel en C++ que define un modelo de sombreado base, como Iluminado, No iluminado, Recubrimiento transparente o Cabello. Esto determina las entradas del shader, como Metálico o Traslúcido, y cómo cada una reacciona a la luz.
Un material es un gráfico lógico de entradas de texturas, fórmulas e instrucciones que se envían a un shader y representan las cualidades de superficie de un objeto y la expresión específica de ese shader.
Para crear un nuevo material, haz clic derecho en cualquier parte del explorador de contenido y selecciona Crear recurso básico > Materiales. El editor de materiales muestra un gráfico de nivel básico con el nodo de material principal.
Haz clic en el nodo de material principal para ver sus propiedades en el panel de detalles. Puedes seleccionar diferentes shaderes mediante la configuración de Modelo de sombreado.
En situaciones donde se desea aplicar un material único a más de una malla, se recomienda usar Instancias de material. Estas son versiones parametrizadas de materiales que puedes usar para crear variedad y singularidad sin costos adicionales.
Cada instancia de material usa ya sea un material u otra instancia de material como su raíz (o material “maestro”) para realizar ediciones. Cualquier nodo que se haya parametrizado en el material maestro es accesible en el editor de materiales instanciados. Estos parámetros expuestos se pueden usar para crear variaciones infinitas de un material de origen, lo que permite crear variaciones de color, aplicar texturas diferentes, aumentar o disminuir detalles, y más.
Usar instancias de material es más eficiente cuando se usa un material maestro y sus materiales derivados para generar variaciones.
Para crear una instancia de material, haz clic derecho sobre un material en el explorador de contenido y, luego, haz clic en Crear instancia de material.
Para obtener más información sobre los materiales e instancias de material, consulta las documentaciones Materiales y Cómo crear y usar instancias de materiales. Además, para obtener más información sobre el editor de materiales, consulta la documentación Guía del usuario del editor de materiales.
Nanite
Nanite es el sistema de geometría virtualizada de Unreal Engine que utiliza un formato de malla interna y tecnología de renderizado para los detalles a escala de píxeles y un gran número de objetos. Se centra solo en los detalles que se pueden percibir y nada más.
Nanite ofrece varios beneficios a los proyectos, como múltiples órdenes de envergadura de aumento en la complejidad de geometría, recuentos de triángulos y de objetos más altos de lo que ha sido posible antes en tiempo real Las estimaciones de fotogramas ya no están limitadas por conteos de polígonos, llamadas de trazado y utilización de memoria de la malla.
Para obtener más información sobre Nanite y cómo aprovechar esta herramienta en tus proyectos, consulta la documentación Geometría virtualizada de Nanite (Geometría virtualizada de Nanite).
Audio
Unity usa un marco de audio de origen, donde cada audio de origen en el entorno del juego tiene una única voz asociada. Unity usa mezcladores para aplicar ajustes de canal de audio a estos orígenes.
El complemento MetaSounds de Unreal Engine es un sistema de generación de audio que se puede usar para controlar completamente un gráfico de procesamiento digital de señales (DSP) dentro de un entorno de programación visual similar a Blueprint.
Para obtener más información, consulta la documentación MetaSounds.
Para mezclar audio, se recomienda usar el complemento de Modulación de audio, que proporciona control dinámico sobre los parámetros de audio como el volumen y el pitch, desde los sistemas de Blueprint o de componente de Unreal Engine.
Para obtener más información, consulta la documentación Resumen de la modulación de audio.
Las señales de sonido son objetos de audio que encapsulan tareas complejas de diseño de sonido en un gráfico de nodo. Se pueden usar para cambiar dinámicamente las partes de un diseño de un efecto de sonido mediante la organización y modificación de los nodos de sonido para generar una salida de audio compleja.
Para obtener más información sobre las señales de sonido, consulta la documentación Referencia de la señal de sonido.
Para obtener información general de los sistemas de audio de Unreal Engine, consulta la página Cómo trabajar con audio.
Efectos visuales
Los sistemas de partículas Niagara son el equivalente en Unreal Engine a los sistemas de partículas de Unity y al VFX Graph. Puedes crear emisores Niagara para compilar emisores de partículas individuales, o sistemas Niagara para combinar varios emisores en un efecto visual más complejo. Al crear un nuevo sistema o recurso emisor, puedes usar un emisor Niagara existente como plantilla.
El gráfico de información general del sistema del editor Niagara ofrece una interfaz similar para editar partículas como lo hace el editor de sistema de partículas de Unity. Los emisores y sistemas de Niagara están compuestos por componentes modulares que pueden gestionar una amplia variedad de comportamientos o eventos. Cada módulo que añades aumenta la complejidad de tu sistema de partículas y añade nuevos parámetros para configurar.
Para obtener más información, consulta la documentación Creating Visual Effects (Cómo crear efectos visuales).
El complemento Niagara Fluids se puede usar para añadir humo, fuego, explosiones, agua, salpicaduras y otros efectos físicamente más verosímiles a tus proyectos.
Para obtener más información, consulta la documentación Niagara Fluids
Interfaz de usuario
El editor Unreal Motion Graphics, o UMG, es el equivalente de Unreal Engine al kit de herramientas de IU y a la biblioteca de componentes de UI de Unity. UMG proporciona un editor WYSIWYG para crear IU a partir de una variedad de widgets, incluso botones, elementos de texto y numerosos contenedores y cuadrículas.
Para crear una nueva IU, crea un nuevo blueprint de widget en el explorador de contenido. Al abrir un blueprint de widget, se abre el editor UMG y se muestra una cuadrícula en blanco con un panel de Paletas de widgets a la izquierda y un panel de detalles a la derecha. Un botón en la esquina superior derecha cambia entre las vistas Diseñador y Gráfico.
Usa la vista Diseñador para organizar widgets dentro del blueprint de widget. Haz clic y arrastra widgets desde el panel Paleta al gráfico, y usa Jerarquía para cambiar el orden del dibujo. Los widgets que están más abajo en la lista se muestran en la parte superior. Habilita la casilla de verificación Es variable en el panel de detalles del widget para exponerlo a la secuencia de tu IU.
Como sugiere el nombre, cualquier blueprint de widget que crees puede usarse como widget dentro de otros blueprints de widget. Estos aparecen en tu paleta, en la categoría Creado por el usuario. Luego puedes usar los blueprints de widget tanto para menús completos y HUD, como para componentes reutilizables como botones o barras de progreso.
Para obtener más información, consulta la documentación UMG UI Designer Quick Start Guide (Guía de inicio rápido del diseñador de IU de UMG). Además, consulta la documentación sobre Creating User Interfaces (Cómo crear interfaces de usuario) para obtener más información sobre cómo construir y mostrar la IU.
Guardado y carga
La posibilidad de salir del juego y continuar desde donde el jugador lo dejó es parte de la mayoría de los juegos modernos. Según el tipo de juego que estés creando, es posible que solo necesites guardar algunos datos básicos, como el último punto de control alcanzado por el jugador o información más detallada.
Los desarrolladores de Unity podrían estar familiarizados con PlayerPref, que se puede usar para guardar las preferencias del jugador entre sesiones de juego, o con diversos paquetes de la Asset Store que ofrecen funciones de guardado y carga. Estas funciones están integradas en Unreal Engine.
Para obtener más información sobre cómo añadir la capacidad de guardar y cargar sesiones de juego en Unreal Engine, consulta la documentación Saving and Loading Your Game (Cómo guardar y cargar tu juego).
Comparación de funciones de alto nivel entre motores
Esta sección ofrece información general sobre cómo se llaman y para qué se usan algunas funciones y herramientas en Unity y Unreal Engine.
| Propósito | Unreal Engine | Unity |
|---|---|---|
| Interfaz de usuario (IU) | ||
Cómo crear una IU | Unreal Motion Graphics (UMG) | Kit de herramientas de IU |
| Construcción del entorno | ||
Cómo crear terrenos de todas las formas | Modo terreno | Sistema de terreno |
Cómo añadir follaje a un terreno | Modo de follaje | Follaje del sistema de terreno |
Cómo construir bocetos de nivel | Modo de modelado | ProBuilder |
Cómo crear superficies de agua y efectos bajo el agua | Sistema de agua | Sistema de agua |
Generación procedimental de mundos y herramientas | Generación procedimental de contenido (PCG) | Herramientas de terceros |
| Optimización | ||
Generación de perfiles suite para identificar problemas de rendimiento | Trazado | Perfilador |
| Jugabilidad | ||
Control de la entrada del jugador | Sistema de entrada mejorado | Sistema de entrada |
Programación visual | editor de blueprints | Programación visual (antes conocido como Bolt) |
Lenguajes de programación y secuencias de comandos compatibles | C++ (programación) | C# (secuenciación) |
Motor de físicas | Físicas de Chaos | NVIDIA PhysX |
Guardado y carga de datos del juego | Objetos SaveGame | PlayerPrefs / Soluciones personalizadas |
| Inteligencia artificial | ||
Autómata finito para diseñar estados de IA | StateTree | Herramientas de terceros |
Cómo crear áreas para la IA en las que se pueda navegar | Sistema de navegación | NavMesh |
| Animación | ||
Control de los datos de animación | Blueprints de animación | Controlador de animador |
Cómo generar secuencias de animación | Editor de Sequencer | Línea de tiempo |
Rigging de personajes 3D | Rig de control | Herramientas de terceros |