Introducción
Esta página ofrece una descripción general de alto nivel de los principales sistemas y procesos de trabajo de Unreal Engine, y cómo se comparan con los editores, las herramientas y los tipos de recursos más usados en Unity. Este documento está diseñado para ayudar a los desarrolladores de Unity a entender cómo llevar a cabo procesos de trabajo familiares en Unreal Engine. Para obtener más información sobre cada función, sigue los enlaces de cada sección.
Esta página hace referencia a herramientas y funciones basadas en las versiones Unreal Engine 5.5.4 y Unity 6 (6000.0.30f1). Las referencias de las funciones pueden ser distintas en otras versiones del motor.
Jugabilidad
Physics
Para obtener una visión más detallada sobre las funciones de Chaos Physics, consulta Física en la documentación.
Motor de física
Unreal Engine incluye Chaos Physics, una solución ligera de simulación de física creada desde cero para satisfacer las necesidades de los juegos de nueva generación. Chaos Physics viene con muchas características, como destrucción, física en red, física de cuerpos rígidos, vehículos y mucho más.
El motor de física predeterminado de Unity para juegos en 3D es NVIDIA PhysX, que viene con muchas características similares a las de Chaos Physics.
Chaos Destruction
El sistema Chaos Destruction es un conjunto de herramientas en Unreal Engine que puede usarse para generar unos niveles de destrucción en tiempo real de calidad cinematográfica. Además de los impresionantes elementos visuales creados, el rendimiento del sistema está optimizado y se proporciona más control a los artistas y a los diseñadores sobre la creación de contenido.
El sistema Chaos Destruction utiliza colecciones de geometría, un tipo de recurso creado a partir de una o más mallas estáticas, incluidas las anidadas en blueprints. Estas colecciones de geometría se pueden fracturar para lograr una destrucción en tiempo real.
El sistema proporciona un control sin precedentes sobre el proceso de fracturación mediante un proceso de trabajo intuitivo y no lineal. El usuario puede crear múltiples niveles de fracturación, así como fracturación selectiva en partes de la colección de geometría, para un mayor control artístico. Los usuarios también pueden definir los umbrales de daño por conjunto que active una fractura.
Puedes obtener más información sobre Chaos Destruction en la documentación sobre Chaos Destruction.
Física en red
La conexión en red, o replicación en los juegos, se refiere a la capacidad de comunicar información de jugabilidad entre varios dispositivos a través de una conexión a internet. Unreal Engine cuenta con un sólido marco de red que ayuda a los desarrolladores a optimizar la creación de juegos multijugador.
Física en red forma parte del marco de red y permite que las simulaciones basadas en física funcionen en un entorno multijugador. En Unreal Engine, la replicación de física se refiere a actores con movimiento replicado que simulan física. Estas simulaciones se ejecutan dentro del cliente local (la máquina del jugador) durante el juego.
Puedes obtener más información sobre la física interconectada en la documentación al respecto.
Dinámica de cuerpos rígidos
Chaos Physics proporciona muchas funciones para la dinámica de cuerpos rígidos. Esto incluye las respuestas a la colisión, el trazado, las restricciones físicas y la fricción y la amortiguación.
Colisión
En Unreal Engine, la colisión está integrada en la mayoría de los componentes del actor que usan el motor de física. Los ajustes de colisión de un actor se pueden modificar en la sección Colisión del panel Detalles. Por ejemplo, puedes activar la simulación que genera eventos de impacto para permitir que el objeto active eventos a los que puedas acceder a través de blueprints o código para detectar colisiones. Esto es similar a controlar la colisión en Unity usando OnCollisionEnter en C# o secuenciación de comandos visual.
Para obtener más información sobre cómo configurar colisiones para tus actores, consulta Colisión en la documentación.
Trazados con proyecciones de rayos
El sistema Chaos Physics incluye varios métodos de trazado. Los trazados ofrecen un método para recopilar información externa a un actor. Esta información se puede usar en tiempo de ejecución para reaccionar a las condiciones cambiantes del juego.
Hay diferentes opciones disponibles al ejecutar un trazado. Se pueden usar distintos tipos de trazado, como línea, esfera, caja o cápsula. También se puede trazar para uno o varios impactos, e incluso para tipos de objeto o canales de colisión concretos.
El sistema de trazado de UE es similar al sistema de proyección de rayos de Unity.
Para obtener más información sobre el trazado, consulta Trazados con proyecciones de rayos en la documentación.
Chaos Cloth
Chaos Cloth proporciona una simulación de tela precisa y eficaz para juegos y experiencias en tiempo real. El sistema incluye amplios controles de usuario, junto con reacciones físicas como el viento, para lograr una visión artística específica. Además, Chaos Cloth también viene con un potente sistema de accionamiento de animación, que deforma una malla de tela para que coincida con la malla esquelética animada de su padre.
Chaos Cloth también proporciona simulación de tela mediante aprendizaje automático. Este sistema da como resultado una simulación de mayor realismo que el modelo tradicional basado en físicas mediante un conjunto de datos entrenados que se pueden usar en tiempo real para producir resultados que antes solo serían posibles mediante simulación sin conexión.
Para obtener más información sobre Cloth, consulta Chaos Cloth en la documentación.
Vehículos de caos
Chaos Vehicles es el sistema ligero de Unreal Engine para realizar simulaciones de físicas de vehículos. Este sistema proporciona más flexibilidad al usuario al simular cualquier cantidad de ruedas por vehículo. También puedes configurar cualquier cantidad de marchas hacia delante y hacia atrás para una mayor personalización.
Chaos Vehicles se puede configurar para simulaciones de vehículos complejas. Se pueden añadir tantas superficies aerodinámicas como se quiera que proporcionen carga aerodinámica o elevación en posiciones específicas del chasis. Pueden simular alerones de vehículos o incluso alas o timones de aeronaves. Cada una de estas superficies de control puede manipularse mediante alabeo, cabeceo y guiñada.
Para obtener más información sobre Chaos Vehicles, consulta Chaos Vehicles en la documentación.
Simulaciones de fluidos
Unreal Engine incluye un conjunto de herramientas integradas para simular efectos de fluidos en 2D y en 3D en tiempo real. Estos sistemas emplean métodos de simulación basados en físicas para producir efectos realistas de elementos, tales como fuego, humo, nubes, ríos, salpicaduras u olas rompiendo en una playa.
El conjunto de herramientas está diseñado como una plataforma abierta en la que poder experimentar con etapas de simulación, módulos reutilizables e interfaces de datos sólidas.
Para obtener más información sobre las simulaciones de fluidos, consulta la documentación de Simulación de fluidos.
Inteligencia artificial
Unreal Engine incluye varios sistemas para crear y gestionar agentes de IA (PNJ) durante el juego.
Simulación de agentes de IA a escala
MassEntity es un marco centrado en la mecánica de juego diseñado para simulaciones orientadas a datos y de alto rendimiento. MassEntity puede usarse para gestionar y renderizar grandes cantidades de entidades en pantalla de forma eficiente.
Para obtener más información al respecto, consulta la documentación de MassEntity.
Simulación del comportamiento del agente de IA
Unreal Engine incluye función de agente de IA en las siguientes categorías: percepción y estímulos, toma de decisiones, navegación por el mundo e interacciones con el entorno. Cada categoría tiene uno o más sistemas que te ayudarán a conseguir los resultados buscados.
Percepción y estímulos
En el área de percepción y estímulos, Unreal Engine incluye los componentes de IA Detección de peones, Emisor de ruido de peón y Percepción de la IA.
Percepción de la IA se puede usar para definir y controlar a qué sentidos tiene acceso un agente de IA. El componente Percepción de la IA es un tipo de componente que se puede añadir al blueprint AIController de un peón en la ventana de componentes y se usa para definir los sentidos que se van a usar, los parámetros de estos y cómo responder cuando se estimula alguno de ellos.
También puedes usar distintas funciones para obtener información sobre los estímulos percibidos por los sentidos, sobre los actores sentidos o incluso para activar o desactivar un tipo de sentido en particular.
Para obtener más información al respecto, consulta la documentación de Percepción de la IA.
Toma de decisiones
En cuanto a la toma de decisiones, Unreal Engine incluye árboles de comportamiento y State Trees. Estos recursos contienen la lógica que usan los agentes de IA para tomar decisiones durante el juego.
Los recursos del árbol de comportamiento contienen un grafo de decisiones con una variedad de nodos que contienen lógica que el agente de IA puede ejecutar. El árbol comienza en la raíz y ejecuta ciertos nodos en función de los datos almacenados en un recurso de pizarra u otros datos provenientes del propio agente. Los árboles de comportamiento ofrecen una forma intuitiva de visualizar cómo toman decisiones los agentes de IA y pueden configurarse para que sean reutilizables y flexibles.
Para obtener más información al respecto, consulta Árboles de comportamiento en la documentación.
StateTree es un autómata finito jerárquico de uso general que combina selectores de árboles de comportamiento con estados y transiciones de autómatas finitos. StateTree se puede usar para crear lógica muy eficaz que siga siendo flexible y esté bien organizada.
Para obtener más información al respecto, consulta State Tree en la documentación.
Navegación por el mundo
En cuanto a la navegación por el mundo, Unreal Engine incluye un completo sistema de navegación para agentes de IA.
El sistema de navegación proporciona funciones de búsqueda de rutas eficientes a los agentes de IA de tu proyecto. Puedes crear un actor Malla de navegación en tu nivel para construir y procesar la navegación de tus agentes. También puedes usar modificadores de malla de navegación y áreas personalizadas de navegación para modificar el coste de atravesar ciertas áreas, lo que influirá activamente en cómo los agentes de IA eligen la ruta de navegación óptima hacia su objetivo.
Además, el sistema cuenta con dos sistemas de evasión: los obstáculos de velocidad recíproca y el gestor de desvío de multitudes para ayudar a los agentes de IA a evitar los elementos dinámicos de su entorno y entre sí.
Para obtener más información al respecto, consulta la documentación de Sistema de navegación.
Interacciones con el entorno
En el área de interacciones con el entorno, Unreal Engine cuenta con objetos inteligentes.
Los objetos inteligentes son objetos que se colocan en un nivel con el que pueden interactuar los jugadores y agentes de IA. Esos objetos contienen toda la información necesaria para esas interacciones. Los objetos inteligentes son parte de una base de datos global y usan una estructura de partición espacial. Eso significa que pueden consultarse en tiempo de ejecución usando filtros como el área de búsqueda alrededor del agente o etiquetas de jugabilidad.
Para obtener más información al respecto, consulta la documentación de Objeto inteligente.
Aprendizaje automático
Para diseñar soluciones de IA más complejas donde los agentes de IA puedan aprender y adaptarse, Unreal Engine ofrece el complemento Learning Agents, que puede usarse para entrenar agentes de IA mediante algoritmos como el aprendizaje por refuerzo. Este es el equivalente de Unreal Engine al paquete MLAgents de Unity.
Para obtener más información al respecto, consulta Agentes de aprendizaje en la documentación.
Animación de personajes y objetos
Los blueprints de animación son el equivalente de Unreal Engine a los controladores del animador de Unity. Los blueprints de animación incluyen un grafo de animación y un grafo de evento de blueprint estándar, que proporcionan un medio para definir parámetros y programar lógicas y comportamientos de animación complejos en un único punto de entrada.
Para obtener más información al respecto, consulta la sección Blueprints de animación. en la documentación.
Si prefieres organizar las animaciones con un autómata finito, puedes crear nodos de autómata finito en tu grafo de animación y hacer doble clic en ellos para abrir sus propios subgrafos especializados. A continuación, podrás crear nuevos estados, conductos y atajos de estado, además de establecer conexiones entre ellos. Cada estado contiene su propio grafo de animación que controla la salida del estado y las conexiones controlan las transiciones entre ellos.
Para obtener más información al respecto, consulta State Machines en la documentación.
Los espacios de mezcla definen un grafo de animaciones que se mezclan en función de parámetros. Por ejemplo, un espacio de mezcla 2D puede mezclar animaciones de caminar hacia adelante, hacia atrás, hacia la izquierda y hacia la derecha en función de la orientación y la velocidad del personaje.
Para obtener más información al respecto, consulta Espacios de mezcla en la documentación.
Unity usa la herramienta Cronograma para animar secuencias cinemáticas. Sequencer Editor es el equivalente en Unreal Engine al cronograma de Unity y proporciona una interfaz similar a la de un editor no lineal para coordinar animaciones, efectos y movimientos de cámara. Puedes usar Sequencer para definir secuencias de nivel que representan cinemáticas o animaciones independientes para personajes y objetos.
Para obtener más información sobre la creación de secuencias, consulta Sequencer Editor en la documentación.
Unreal Engine también incluye el sistema de rig de control que se puede usar para rig de animación de mallas esqueléticas directamente en el editor. Con el rig de control, puedes crear y manipular controles personalizados del rig en un personaje, animarlos con Sequencer y utilizar otras herramientas de animación para ayudarte en el proceso de animación.
Para obtener más información sobre el rigging en Unreal Engine, consulta Rig de control en la documentación.
Para capturar y exportar secuencias de imágenes y vídeo dentro de Unreal Editor, puedes usar Movie Render Queue. Es el equivalente de la herramienta de grabación de Unity. Movie Render Queue se puede usar para renderizar y exportar secuencias fotograma a fotograma, imágenes en el juego o grabaciones de vídeo sin pérdida de calidad.
Para obtener más información sobre Movie Render Queue, consulta Rendering High Quality Frames with Movie Render Queue en la documentación.
Marco de jugabilidad
El marco de jugabilidad de Unreal Engine es un conjunto de clases que te proporcionan una base modular sobre la que puedes construir tu experiencia de jugabilidad, como el modo de juego, el estado del jugador, los controladores, los peones y las cámaras.
En Unity, estructuras similares se encargan de componentes como CharacterController y secuencias de comandos MonoBehaviour adjuntas a GameObjects para definir comportamientos.
Para obtener más información sobre cómo aprovechar el marco de jugabilidad, consulta Marco de jugabilidad en la documentación.
Entrada
El sistema Enhanced Input está diseñado para gestionar la entrada del jugador en varios dispositivos, incluidos teclados, mandos y pantallas táctiles.
Puedes definir acciones de entrada (para acciones como saltar y disparar) y ejes de entrada (para entradas continuas como el movimiento o la rotación de la cámara). Estas acciones y ejes pueden estar vinculados a teclas o botones específicos, o incluso a gestos táctiles, ofreciendo así un alto grado de personalización.
Para empezar a usar el sistema Enhanced Input, puedes crear recursos de Enhanced Input en el explorador de contenido pulsando el botón + Añadir y seleccionando Entrada. Estos recursos pueden configurarse para definir los atajos de teclado y las entradas de tu juego.
Puedes vincular estas acciones y ejes a eventos de entrada del jugador en tu lógica de juego. El sistema puede usarse para gestionar distintos esquemas de entrada (p. ej., teclado o mando) y permite definir esquemas de control complejos.
Puede que los desarrolladores de Unity estén familiarizados con el sistema de entrada de Unity, que tiene funciones similares a las del sistema Enhanced Input de Unreal Engine. En Unreal Engine, Enhanced Input es el estándar para el manejo complejo de entradas o la reasignación de controles en tiempo de ejecución.
Para obtener más información sobre cómo definir entrada en tu proyecto, consulta Enhanced Input en la documentación.
Creación y diseño de mundos
Las función de construcción de mundos en Unreal Engine se divide en distintos modos de editor en el visor de nivel.
Modelado y creación de prototipos de niveles
El modo de modelado proporciona una funcionalidad similar a la de la extensión ProBuilder de Unity, con amplias herramientas de edición de vértices, aristas, caras y UV similares a las que usarías en un programa de modelado.
Puedes activar el modo de modelado haciendo clic en el menú desplegable del visor y seleccionando Modelado.
Para obtener más información sobre el modelado en Unreal Engine, consulta Descripción general del modo de modelado en la documentación.
Creación de un terreno o paisaje
El modo Paisaje proporciona funciones similares al sistema Terreno de Unity. Puedes usar el modo Terreno para crear un paisaje y darle forma con un conjunto de herramientas similar al sistema Terreno de Unity, como elevar, bajar y aplanar.
Puedes activar el modo Paisaje haciendo clic en el menú desplegable Modos del visor y seleccionando Paisaje.
Para obtener más información al respecto, consulta Guía de inicio rápido de Paisaje en la documentación. Además, consulta Terreno exterior de paisaje en la documentación para obtener más información sobre cómo crear terrenos para entornos exteriores grandes y abiertos.
Follaje
El modo Follaje es similar al sistema Terreno de Unity a la hora de añadir y gestionar follaje. En el modo Follaje, puedes añadir árboles, hierba y otra vegetación a tu nivel ajustando propiedades como la densidad, la altura y la rotación de cada contenido.
Una diferencia importante con el sistema Terreno de Unity es que el modo Follaje de Unreal Engine puede usarse para pintar cualquier objeto con follaje, no solo el paisaje. Este modo proporciona una forma intuitiva de propagar tu mundo con elementos naturales a la vez que te da control sobre cómo aparecen en el paisaje o en cualquier superficie de tu nivel.
Puedes activar el modo Follaje haciendo clic en el menú desplegable Modos del visor y seleccionando Follaje.
Para obtener más información, consulta la documentación del modo Follaje. Además, puedes usar la documentación de Herramientas de mundo abierto para obtener más información sobre cómo llenar grandes espacios con recursos de malla estática para crear espacios exteriores que parezcan naturales y llenos de vida.
Generación procedimental de contenido (PCG)
El marco de generación de contenido procedimental (PCG) es un conjunto de herramientas con el que podrás crear contenido procedimental en Unreal Engine. Permite a artistas y diseñadores crear de forma rápida e iterativa herramientas y contenidos de cualquier tipo, desde recursos como edificios o generación de biomas hasta mundos completos.
PCG está diseñado para ofrecer extensibilidad e interactividad, lo que permite su integración en procesos de creación de mundos existentes y difumina la línea entre los procesos de trabajo tradicionales y los procedimentales.
Para obtener más información sobre cómo crear contenido procedimental en Unreal Engine, consulta Marco de generación procedimental de contenido en la documentación.
Sistema de agua
El sistema de agua se puede utilizar para crear ríos, lagos y océanos que interactúen y trabajen conjuntamente con tu terreno mediante un proceso de trabajo basado en splines.
Puede que los desarrolladores de Unity estén familiarizados con el sistema de agua disponible para proyectos que usan HDRP. El sistema de agua de Unreal Engine es escalable para adaptarse a proyectos de todos los tamaños y es compatible con todas las plataformas.
Para obtener más información sobre cómo activar el agua en tus niveles, consulta Sistema de agua en la documentación.
Elementos visuales y renderizado
Unity usa el sistema de canalización de renderizado (SRP) y proporciona plantillas como la canalización de renderizado de alta definición (HDRP). Unreal Engine cuenta con un canalización de renderizado unificada, robusta y altamente personalizable. Esto significa que la compatibilidad de los dispositivos, las funciones y el conjunto de prestaciones no se reparten entre las plantillas.
En Unreal Engine, puedes usar los ajustes de escalabilidad para cambiar la fidelidad visual del juego. Para obtener más información al respecto, consulta Referencia de escalabilidad en la documentación.
Fuentes de luz
Los procesos de trabajo de iluminación en Unreal Engine son similares a los de Unity. Puedes añadir luces a los niveles o eliminarlas. Además, existen varios tipos de fuentes de luz que puedes usar, como luces direccionales, puntuales y focales.
Ve a Crear > Luz y elige la forma de la fuente de luz que quieres añadir a tu nivel. Esto creará un nuevo objeto. Para obtener más información sobre los tipos de luz y cómo usarlos, consulta la documentación sobre los Tipos de luz y su movilidad.
Luz cenital
La luz cenital capta las partes lejanas de tu nivel y las aplica a la escena como una luz. Esto significa que la apariencia del cielo y su iluminación/reflejos coincidirán, incluso si el cielo proviene de la atmósfera, o de nubes en capas sobre un skybox, o de montañas distantes.
Por defecto, un nuevo nivel en Unreal Engine tiene una carpeta Iluminación en el panel Esquematizador. Esta carpeta contiene un conjunto predeterminado de objetos de iluminación, como DirectionalLight, ExperimentalHeightFog y SkyLight. Para obtener más información al respecto, consulta Luces del cielo en la documentación.
Iluminación global de Lumen y reflejos
Lumen es el sistema de iluminación global y reflejos totalmente dinámico de Unreal Engine, diseñado para las dispositivos de nueva generación. Es el sistema de iluminación global y reflejos predeterminado. Esto significa que la luz rebota e interactúa con las superficies, creando una iluminación de aspecto natural al instante sin necesidad de hacer bake en la iluminación mediante procesos de trabajo precomputados.
Para obtener más información sobre cómo usar la iluminación global dinámica y los reflejos en tu proyecto, consulta Iluminación global de Lumen y reflejos en la documentación.
Posprocesamiento
En Unity, el posprocesamiento lo gestionan los volúmenes. Después de crear un GameObject con un componente de volumen, puedes asignarle un perfil de posprocesamiento y establecer si es global o local.
En Unreal Engine, el posprocesamiento se realiza principalmente con volúmenes colocados. Sin embargo, se puede aplicar de otras maneras. En general, el posprocesamiento funciona de forma similar, ya que puedes anular los valores predeterminados.
| Formas de aplicar el posprocesamiento | Descripción |
|---|---|
Configuración del proyecto | Por defecto, Unreal Engine aplica un conjunto de efectos de posprocesamiento a tu juego en función de los ajustes de escalabilidad. Estos ajustes se aplican a todo el proyecto a menos que se anulen. Puedes cambiar los efectos de posprocesamiento predeterminados que se aplican globalmente al proyecto en Configuración del proyecto > Motor > Renderizado. |
Componente de cámara | Cada componente de cámara tiene su propio conjunto de ajustes de posprocesamiento que se pueden modificar. Funcionan cámara por cámara, lo que significa que las cámaras que no anulen ningún ajuste aplicarán los efectos predeterminados definidos en la configuración del proyecto o usarán los valores aplicados a un volumen. |
Volumen de posprocesamiento | Se puede añadir un volumen de posprocesamiento a un nivel desde Añadir > Volumen. Así se crea un nuevo actor de nivel que anula los ajustes de posprocesamiento predeterminados, al igual que el componente de volumen de Unity. Estos volúmenes pueden aplicar posprocesamiento cuando la cámara del jugador está dentro del volumen, o pueden anular globalmente todo el nivel cuando su ajuste Alcance infinito (sin límites) está activado. Funciona de forma similar a la opción Modo global del marco de volúmenes de Unity. |
Materiales
Unity usa el grafo de sombreador para definir nuevos sombreadores. El equivalente de Unreal Engine es el sistema de materiales. Los sombreadores y los materiales en Unreal Engine se diferencian entre sí por los siguientes aspectos:
Un sombreador es una construcción de bajo nivel en C++ que define un modelo base de sombreado, como Iluminado, No iluminado, Recubrimiento transparente o Pelo. Esto determina las entradas del sombreador, como Metálico o Traslúcido, y cómo reaccionan a la luz.
Un material es un grafo lógico de entradas de texturas, fórmulas e instrucciones que se alimentan en un sombreador y representan las cualidades de la superficie de un único objeto y la expresión específica de ese sombreador.
Para crear un material, haz clic derecho en cualquier parte del explorador de contenido y clic en Crear recurso básico > Materiales. El editor de materiales muestra un grafo en blanco con el nodo Main Material.
Haz clic en el nodo Main Material para mostrar sus propiedades en el panel Detalles. Puedes seleccionar distintos sombreadores con el ajuste Modelo de sombreado.
En situaciones en las que quieras aplicar un material único a más de una malla, te recomendamos que uses instancias de material. Estas son versiones parametrizadas de materiales que puedes usar para crear variedad y singularidad sin preocuparte por costes adicionales.
Cada instancia de material usa un material u otra instancia de material como material padre (o material «maestro») para realizar ediciones. Se puede acceder a todos los nodos que se hayan parametrizado en el material maestro en el editor de materiales de instancias. Estos parámetros expuestos se pueden usar para crear infinitas variaciones a partir de un único material de origen para crear variaciones de color, aplicar distintas texturas, aumentar o disminuir los detalles y mucho más.
Usar instancias de material es más eficiente cuando usas un material maestro y sus materiales hijo para controlar la variación.
Para crear una instancia de material, haz clic derecho en un material en el explorador de contenido y luego clic en Crear instancia de material.
Para obtener información más sobre los materiales y las instancias de material, consulta la documentación sobre materiales y la documentación sobre Creación y uso de instancias de material. Para obtener más información sobre el editor de materiales, consulta Guía del usuario del editor de materiales en la documentación.
Nanite
Nanite es el sistema de geometría virtualizada de Unreal Engine que emplea un formato de malla interna y tecnología de renderizado que permite obtener detalles a escala de píxel y una gran cantidad de objetos. Se centra únicamente en los detalles que se pueden percibir y nada más.
Nanite ofrece varias ventajas a los proyectos, como un aumento de la complejidad geométrica en varios órdenes de magnitud y un mayor número de triángulos y objetos que antes en tiempo real. Los límites de fotogramas ya no están condicionados por el conteo de polígonos, las llamadas de trazado y el uso de la memoria de malla.
Para obtener más información sobre Nanite y cómo aprovecharlo en tus proyectos, consulta Geometría virtualizada de Nanite en la documentación.
Audio
Unity utiliza un marco de fuentes de audio en el que cada fuente de audio del mundo de tu juego tiene una sola voz asociada. Unity usa mezcladores para aplicar ajustes de canales de audio a estas fuentes.
El complemento MetaSounds de Unreal Engine es un sistema de generación de sonidos que se puede usar para tener un control total sobre un grafo de procesamiento digital de señales (DSP) dentro de un entorno de secuenciación de comandos visual similar a Blueprint.
Para obtener más información al respecto, consulta la documentación de MetaSounds.
Para mezclar audio, te recomendamos que uses el complemento Audio Modulation, que proporciona un control dinámico sobre los parámetros de sonido, como el volumen y el tono, desde los sistemas de blueprint o componente de Unreal Engine.
Para obtener más información al respecto, consulta Descripción general de la modulación de sonido en la documentación.
Las señales de sonido son objetos de audio que encapsulan tareas complejas de diseño de sonido en un grafo de nodos. Se pueden usar para cambiar dinámicamente partes del diseño de un efecto de sonido organizando y modificando nodos de sonido, y creando una salida de audio compleja.
Para obtener más información sobre las señales de sonido, consulta Referencia de señal de sonido en la documentación.
Para obtener una descripción completa de los sistemas de sonido de Unreal Engine, consulta la página Cómo trabajar con sonido.
Efectos visuales
Los sistemas de partículas de Niagara son el equivalente en Unreal Engine a los sistemas de partículas de Unity y al grafo de efectos visuales. Puedes crear emisores Niagara para crear emisores de partículas individuales o sistemas Niagara para combinar varios emisores en un efecto visual más complejo. Cuando creas un nuevo sistema o recurso de emisor, puedes usar un emisor Niagara existente como plantilla.
El grafo de descripción general del sistema del editor de Niagara proporciona una interfaz de edición de partículas similar a la del editor del sistema de partículas de Unity. Los emisores y sistemas Niagara están formados por componentes modulares que pueden controlar una amplia variedad de comportamientos o eventos. Cada módulo que añades aumenta la complejidad de tu sistema de partículas y añade nuevos parámetros para configurar.
Si quieres obtener más información al respecto, consulta Creating Visual Effects en la documentación.
El complemento Niagara Fluids se puede usar para añadir humo, fuego, explosiones, agua, salpicaduras y más efectos físicamente plausibles a tus proyectos.
Para obtener más información al respecto, consulta Niagara Fluids en la documentación.
Interfaz de usuario
El editor de Unreal Motion Graphics, o UMG, es el equivalente de Unreal Engine a la biblioteca de componentes de IU y herramientas de IU de Unity. UMG proporciona un editor WYSIWYG para construir interfaces de usuario a partir de distintos widgets, incluidos botones, elementos de texto y numerosos contenedores y cuadrículas.
Para crear una nueva IU, crea un nuevo blueprint de widget en el explorador de contenido. Al abrir un blueprint de widget, se abre el editor de UMG y se muestra una cuadrícula en blanco con un panel de widgets Paleta a la izquierda y un panel Detalles a la derecha. Un botón en la esquina superior derecha cambia entre las vistas de Diseñador y Grafo.
Usa la vista del diseñador para organizar widgets dentro de tu blueprint de widget. Haz clic y arrastra widgets desde el panel Paleta hasta tu grafo y usa la jerarquía para cambiar el orden de trazado. Los widgets de la parte inferior de la lista se muestran en la parte superior. Marca la casilla de verificación Es variable en el panel Detalles de un widget para exponerlo a la secuencia de comandos de tu IU.
Como su nombre indica, cualquier blueprint de widget que crees puede usarse como widget dentro de otros blueprints de widget. Aparecen en la paleta en la categoría Creado por el usuario. Así podrás usar los blueprints de widget tanto para menús enteros y HUD como para componentes reutilizables como botones o barras de progreso.
Para obtener más información al respecto, consulta la UMG UI Designer Quick Start Guide. Para obtener más información sobre cómo crear y mostrar IU de usuario, consulta también Cómo crear interfaces de usuario en la documentación.
Cómo guardar y cargar
La capacidad de salir del juego y reanudarlo donde lo haya dejado un jugador forma parte de la mayoría de los juegos modernos. En esta línea, según el tipo de juego que estés desarrollando, es posible que solo necesites guardar algunos datos básicos, como el último punto de control al que ha llegado el jugador, o información más detallada.
A los desarrolladores de Unity puede que les resulte familiar PlayerPref, que puede usarse para almacenar las preferencias de los jugadores entre sesiones de juego, o una variedad de paquetes de almacenamiento de recursos que proporcionan función de guardado y carga. Estas funciones están integradas en Unreal Engine.
Para obtener más información sobre cómo añadir la capacidad de guardar y cargar sesiones de juego en Unreal Engine, consulta Cómo guardar y cargar una partida en la documentación.
Comparación de prestaciones de alto nivel entre motores
Esta sección proporciona una introducción general sobre los nombres y usos de algunas funciones y herramientas en Unity y Unreal Engine.
| Finalidad | Unreal Engine | Unity |
|---|---|---|
| Interfaz de usuario (IU) | ||
Creación de IU | Unreal Motion Graphics (UMG) | Kit de herramientas de IU |
| Creación del mundo | ||
Creación de paisajes de todas las formas | Modo Paisaje | Sistema Terreno |
Cómo añadir follaje a un paisaje | Modo Follaje | Follaje del sistema Terreno |
Bloqueos a nivel de construcción | Modo Modelado | ProBuilder |
Creación de superficies de agua y efectos submarinos | Sistema de agua | Sistema de agua |
Generación procedimental de mundos y herramientas | Generación procedimental de contenido (PCG) | Herramientas de terceros |
| Optimización | ||
Conjunto de perfiles para identificar problemas de rendimiento. | Trazado | Perfilador |
| Jugabilidad | ||
Cómo gestionar la entrada del jugador | Sistema Enhanced Input | Sistema de entrada |
Secuenciación de comandos visual | Editor de blueprints | Secuenciación de comandos visual (anteriormente conocida como Bolt) |
Lenguajes de programación y secuencias de comandos compatibles | C++ (programación) | C# (secuencias de comandos) |
Motor de física | Físicas de Chaos | NVIDIA PhysX |
Cómo guardar y cargar datos del juego | Objetos SaveGame | PlayerPrefs/soluciones personalizadas |
| Inteligencia artificial | ||
Autómata finito para diseñar estados de IA | StateTree | Herramientas de terceros |
Creación de áreas de la IA para poder navegar | Sistema de navegación | Malla de navegación |
| Animación | ||
Manejo de datos de animación | Blueprints de animación | Controlador del animador |
Creación de secuencias de animación | Sequencer Editor | Cronograma |
Rigging de personajes en 3D | Rig de control | Herramientas de terceros |