我们已注意到 Google 披露的 WebRTC 版本中存在的漏洞(更多信息请参见此处),并正在调查它对 EOS SDK 的影响以及接下来应采取的措施。
下面的功能是令人激动的新工具,已在像素流送中实现。虽然这些功能供了新的可能性,但要注意,功能不稳定,应谨慎使用。
像素流送播放器
利用像素流送播放器,你可以将虚幻引擎项目中活动的像素流作为3D空间中的显示内容显示。这样你就可以将云托管的内容显示为本地应用程序中的媒体源。
设置你的像素流送播放器
- 启用像素流送和像素流送播放器插件。
- 创建新的蓝图类(Actor)。保存并将其命名为所需名称。
-
打开新的蓝图类,并添加两个组件:PixelStreamingSignalling和PixelStreamingPeer。
-
将PixelStreamingSignalling组件拖入事件图表中。拖移此节点并创建"Connect"节点。将BeginPlay连接到新节点并在URL值中输入"ws://localhost"。
-
选择PixelStreamingSignalling组件并从细节窗口添加"On Config"、"On Offer"和"On Ice Candidate"事件。此外还要添加PixelStreamingPeer节点中的"On Ice Candidate"事件。
-
拖移"On Config (PixelStreamingSignalling)"节点并创建"Set Config (Pixel Streaming Peer)"。确保连接了"Set Config"和"On Config"之间的配置值。
-
拖移"On Offer (PixelStreamingSignalling)"并创建"Create Answer"。确保连接了"Offer"和"Create Answer"之间的提供值。拖移"Create Answer"输出节点并创建"Send Answer"节点。确保"Create Answer"的返回值连接到"Send Answer"的回答值。
-
拖移"Ice CandidatePixelStreamingSignalling)"并创建"Receive Ice Candidate",然后连接候选值。
-
拖移"Ice Candidate(PixelStreamingPeer)"并创建"Send Ice Candidate (PixelStreamingSignalling)"节点。连接候选值。
-
如果正确完成上述操作,完成的蓝图应该如下所示:
-
选择蓝图中的PixelStreamingPeer组件。在细节窗口中的"属性(Properties)"下,你应该会看到"像素流送视频接收器(Pixel Streaming Video Sink)"。选择下拉菜单并选择"像素流送媒体纹理(Pixel Streaming Media Texture)"。相应命名并保存。
- 将你的蓝图Actor拖入场景中。创建简单的平面对象并调整大小和形状,使其适合显示屏。
- 将保存的像素流送媒体纹理直接从内容浏览器拖入场景中的平面。这会自动创建材质并将其应用于对象。
- 启动此项目外部的基本本地像素流。(开始信令服务器并使用相关的像素流送参数运行应用程序)
-
播放你的场景。现在你应该会看到你的外部像素流显示在你的场景中的平面上!
VCam
VCam是一个新功能,允许你将VCam组件附加到场景内Actor,并将关卡视口的视频内容流送到输出提供程序。
在此阶段,VCam主要用于虚拟制片用例。它可以与Live Link VCam iOS应用程序配对,并用于ARKit追踪。这很适合在虚幻引擎中导航虚拟摄像机,由像素流送处理触摸事件,并将关卡视口作为实时视频反馈流送到iOS设备。如需详细了解Live Link VCam,请前往下面的站点: iOS Live Link VCam
如何使用VCam
-
确保你启用了虚拟摄像机插件
-
将VCam组件添加到场景内Actor(在下面的示例中,它已附加到按上方指南创建的像素流送播放器蓝图)。
-
在VCam组件中,找到"输出提供程序(Output Providers)"并添加下拉菜单中的"像素流送提供程序(Pixel Streaming Provider)"。展开新的"输出(Output)"分段。
- 要开始和停止你的流,只需切换"输出(Output)"下的"处于活动状态(Is Active)"复选框。
-
启动之后,打开本地浏览器,找到到"127.0.0.1"以查看你的流送显示内容,或打开Live Link iOS应用程序并找到"127.0.0.1",然后点击"连接(connect)"。
如果你想通过浏览器与流交互,你需要在浏览器中打开控制面板,并将"控制方案(Control Scheme)"更改为"悬停(Hovering)"