언리얼 엔진은 통합 프레임워크를 사용한 휴대형 AR 개발을 지원하므로 최소한의 플랫폼 체크만으로 애플리케이션이 다수의 모바일 플랫폼을 타기팅할 수 있도록 해 줍니다. 휴대형 AR 플랫폼은 언리얼 엔진 프로젝트에서 사용할 수 있는 페이셜 트래킹(facial tracking), 환경 프로브(environment probe) 및 오브젝트 오클루전(object occlusion) 등 다양한 기능을 제공합니다.
현재 OpenXR을 사용한 휴대형 AR 디바이스용 개발은 지원되지 않습니다. OpenXR을 사용하여 XR 프로젝트를 개발하려면 OpenXR을 사용하여 헤드 마운트 경험 개발하기를 참고하세요.
이 페이지에는 언리얼 엔진에서 휴대형 AR 디바이스용 프로젝트를 개발하는 방법에 대한 문서 링크가 포함되어 있습니다.
휴대형 AR 시작하기
언리얼 엔진에는 휴대형 AR용 템플릿 프로젝트가 포함되어 있습니다. 이 템플릿은 휴대형 증강현실 프로젝트를 위한 간단한 토대를 제공하며 프로젝트의 필요에 맞게 수정할 수 있습니다. 다음 페이지에서는 이 템플릿을 사용하여 언리얼 엔진에서 휴대형 AR 개발을 시작하는 방법에 대해 설명합니다.
지원되는 플랫폼
다음 페이지에서는 언리얼 엔진의 휴대형 AR을 지원하는 플랫폼 및 모바일 디바이스와 여기에 애플리케이션을 디플로이하는 방법을 살펴봅니다.
휴대형 AR 기능
아래에는 프로젝트에 추가할 수 있는 휴대형 AR 기능과 플랫폼의 기능 지원 여부가 정리되어 있습니다.
기능 | 설명 | ARCore 지원 | ARKit 지원 |
---|---|---|---|
평면 탐지(Plane Detection) | 현실 세계의 가로 또는 세로 평면을 탐지할 수 있습니다. 평면이 탐지되면 해당 위치에 가상 오브젝트를 배치하여 테이블 위 등 현실 세계의 오브젝트에 어태치된 것처럼 보이게 할 수 있습니다. | 예 | 예 |
오브젝트 오클루전 | 현실 세계의 오브젝트가 가상 오브젝트를 가릴 수 있습니다. 즉, 가상 오브젝트가 현실 세계의 오브젝트 뒤에 렌더링된 것처럼 표시됩니다. | 예 | 예 |
사람 오클루전(People Occlusion) | 오브젝트 오클루전과 유사하게 사람이 가상 오브젝트를 가릴 수 있습니다. | 아니요 | 예 |
환경 프로브 | 현실 세계의 라이팅 강도 및 방향을 예측할 수 있습니다. 이 라이트 예측을 가상 오브젝트에 적용하여 오브젝트를 현실 세계와 블렌드할 수 있습니다. | 예 | 예 |
ARPin | ARPin을 사용하여 가상 오브젝트를 현실 세계의 특정 위치에 어태치할 수 있습니다. 또한 이 ARPin을 클라우드에 저장하여 다른 디바이스와 공유할 수 있으므로 여러 사용자가 같은 위치에서 동일한 콘텐츠를 볼 수 있습니다. | 예, 로컬 및 클라우드(Cloud Anchors, Azure Spatial Anchors)에서 지원됩니다. | 예, 로컬 및 클라우드(Geo Anchors, Cloud Anchors, Azure Spatial Anchors)에서 지원됩니다. |
증강 이미지(Augmented Images) | 앱이 탐지 및 증강할 수 있는 레퍼런스 이미지를 제공할 수 있습니다. | 예 | 예 |
페이셜 트래킹 | 트래킹 또는 증강을 위해 사용자 얼굴의 피처 포인트를 탐지할 수 있습니다. | 예 | 예, ARKit API 또는 라이브 링크 페이스 앱을 통해 지원됩니다. |
지오트래킹(Geotracking) | 다운로드된 이미지를 기반으로 디바이스의 GPS 및 월드 트래킹을 사용하여 특정 지리적 위치를 트래킹할 수 있습니다. 이 기능은 이미지가 해당 영역에 대해 수집되었는지 여부에 의존합니다. | 아니요 | 예, 자세한 내용은 Apple 문서를 참고하세요. |
카메라 내재(Camera intrinsics) | 초점 길이, 이미지 해상도 등 디바이스의 물리적 카메라에 대한 정보를 얻을 수 있습니다. | 예 | 예 |