找回密码
 立即注册
查看: 207|回复: 0

XR虚拟演播厅的详细拍摄流程

[复制链接]
发表于 2022-11-9 18:04 | 显示全部楼层 |阅读模式
在虚拟制作中,首先重要的是快速且精准的摄像机追踪系统,通过这套系统,我们可以以极低的延迟为代价,在虚拟系统中完整模拟真实摄像机的实时位姿和镜头参数,并将这些信息传递给渲染引擎,从而计算出正确的画面并回传。另一方面LED屏幕可以将大部分拍摄内容显示在背景上,通过目前的SpatialMapping,也就是我们说的动态的Perspectivemaping,能将画面以正确的透视关系呈现出来,并且和真实世界的人物和事物叠加在一起进行拍摄。

上面说的是一个MR的流程,此外还有AR层面的内容,即以同样的方式,叠加在整个画面的最前层,从而实现“现实层”,也就是刚才提到的真实人物和事物,同时叠加LED,也就是MR中的“后景”,以及AR中的“前景”的效果。并组合成完整的画面。

XR虚拟拍摄这个流程是这样理解的,以一帧画面的生成为例,流程如下:

01、摄像机追踪:把摄像机的各个参数回传到disguise系统内,再传输到UE、Unity、Notch等引擎当中。

02、渲染引擎渲染:引擎收到摄像机数据后,在场景内模拟出相机的状态,并根据这个状态,渲染出摄像机拍摄的一帧画面并回传disguise系统。

03、disguise系统收到这一帧画面以后,由于内部已经有了LED的精准模型,会根据摄像机的透视关系,把画面拆成“MR”和“SetExtension”两部分。并把MR的部分输出给LED。

04、LED显示出这一帧画面之后,连同屏幕区域内的人物和事物,真实的摄像机会拍摄这一帧画面,并把拍摄的一帧发送回disguise系统。

05、Disguise系统收到了拍摄的这一帧,再把刚才拆分画面剩下的“SetExtension”贴回画面。形成一整帧16:9的画面。同时再在上面贴合AR画面,并最终输出。

06、这一整帧画面终于呈现在团队和观众眼前。
懒得打字嘛,点击右侧快捷回复 【右侧内容,后台自定义】
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Unity开发者联盟 ( 粤ICP备20003399号 )

GMT+8, 2024-11-15 15:10 , Processed in 0.089933 second(s), 25 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表