七彩极 发表于 2021-12-16 19:09

深度内容预警!虚拟制片的现状、经验和未来...Unreal Open ...



本篇内容阅读时间约为20 分钟
在2021年12月2-3日的虚幻引擎技术开放日(Unreal Open Day 2021,以下简称UOD)上,技术极客、开发者、创作者汇聚一堂,接受新讯息,交流新观点、互通有无,碰撞思维火花。



△ UOD 2021主会场

今年大热的“虚拟制片”毫无意外地成了本次UOD的重点议题,大量影视、动画创作者来到上海参会,了解技术细节,捕捉数字内容未来的趋势。



△ UOD 2021虚幻引擎展台

我们现场采访了Epic Games中国虚拟制片业务的负责人、和国内虚拟制片核心圈的实践者,下面就把“热腾腾”的新鲜实况分享给大家。

以下为无损版现场采访实录,内容过于“干货”,观点非常前沿,足以为你揭示出数字内容产业未来几年的发展方向,强烈建议收藏并反复阅读体会
<hr/>
徐良安

Epic Games 商务发展经理



我主要负责Epic Games的非游戏相关业务,其中很大一块是传媒娱乐,在传媒娱乐里又有很大一块跟咱们的虚拟制作有关系。

虚拟制作从Epic Games和虚幻引擎的角度来看,可以分成好几块:

第一,基本上整个广播行业都可以用这种技术来实施、来演播;

第二个就是电影和电视剧,也要用到基于虚幻引擎的技术,有一种叫Previz的前置预览技术,还有现在用LED拍摄的相机内视效方法;


除此之外还有实时演播,比如虚拟发布会、演唱会;还有基于虚幻引擎的3D动画;当然还有其他诸如制造业、工程建筑业、模拟仿真行业等等,但是我在传媒娱乐、数字内容这块花的精力比较多。

Epic Games在对虚拟制作开发者的支持上,资源投入非常大。

首先体现在引擎的功能研发上。我们的4.27版本有大量功能都是为了影视、传媒娱乐、虚拟制片所准备的功能开发。

其次,我们在全球有好几个工作室都是专门做数字内容和影视虚拟制片相关的技术和培训的,在中国也有专门的人和团队干这个事,所以对这块市场非常重视。



△ 徐良安

从去年开始,我感受到了虚拟制片在市场上的热度。

LED数字影棚的拍摄方法出来之后,大家的新鲜劲儿一下子就上来了;到今年我们陆陆续续支持了好几个影棚的建设及拍摄工作——每个影棚和相关项目都会来找我们做技术支持,我们也会尽力去帮助他们。



△ LED虚拟拍摄现场

做一个虚拟数字影棚其实很复杂:从空间环境到硬件,到软件工具,包括这里面的虚幻引擎,再到它的拍摄方法,以及数字内容制作方法等等,我们不仅要做技术支持,还要搞培训,我们会去做帮助各类参与方去完成整体设计定位、软硬件集成、整套调试方法,还有各模块等基本标准、现场拍摄方法和数字内容制作等等。

现在全球有很多这样的影棚都在找我们技术支持,我们会很细致地一个一个问题去回答,到现场去支持,去培训,帮他们做各种各样的事情。

在国内,我们今年花了几乎两个月时间在北京帮一个合作伙伴搭建数字影棚,现在在我们看来已经算是一个能达到标准、能拍摄作品的数字影棚了;最近我们也在给南方一个很重要的合作伙伴做(数字影棚),也花了不少时间。

说到国内的影棚,可能去年的情况是大家偏测试多一点,现在呢,成规模、可商业化运营的影棚已经陆续被建起来了,我们也很开心看到合作伙伴在做项目。

虚拟数字影棚的建设方面,目前国内外差别大致分为两块:

首先是棚的数量。

做实时演播的XR棚,国内外都差不多,可能国外(在数量上)稍微多一点;如果是影视拍摄的影棚,尤其是针对电影的,我们有不小的差距。

国内我认为能商用拍摄的还在个位数,但在国外的话就超过100多了。但现在大家的兴趣比较大,也开始认真投入——从硬件厂商、软件厂商,到制片方和平台方都在立项考察,我相信明后年会有更多(棚)出来。

其次是从项目(类型)上。

国内的企业发布会、演唱会,还有一些广播的(项目)用到实时演播的挺多,比如各类汽车发布会、B站上知名产品的发布会、网易的游戏产品发布会;但在影视方面现在很遗憾,目前还没有一部有名的大电影在国内被用虚拟拍摄的方式打造出来。

这个原因可能是,XR项目对实时性的要求更高,制作起来不像影视项目那么繁杂;而且疫情导致全球都一样有这种需求,所以XR演出跑得稍微快一些。

在影视领域,《曼达洛人》属于很早以前我们在技术上支持了很久,然后出来了,有了品牌,大家都知道了;国内(影视)现在还在孵化期,大家正在立项或者正在做,还需要一些时间。

海外现在有很多高标准的大棚,目前也有一些电影正在拍,很快也会出来。海外从平台方(网飞),制片方(华纳),视效公司(ILM工业光魔),不仅舍得投入,技术底子也厚,也在这块积累和沉淀了好几年,棚的数量也比较多;国内才刚刚起步,但希望我们后来在数量上、质量上能够追上——这也是我们的任务,要去帮助国内合作伙伴做得更好。

目前国内虚拟制片遇到的困难主要有三个:

首先,我们比较缺乏对整套解决方案理解深刻的供应商,或者我们叫“集成商”。虚拟制片不仅要有对硬件的理解能力,还要有软件开发能力。国外还是有几个比较成型的这种公司,希望我们能够帮助国内的合作伙伴追上来。

第二是在人才上。大家都缺人,你要去培养一个团队才能使得动这样一套系统。培养团队需要过程,现在到处都缺人,快速培养起一个团队是很难的。需要有项目经验这个团队才会拍得很好,没有经验的话,给你一个很好的空间也(可能)拍不好。

其三,大家需要(实践)沉淀。从导演,从制片方、摄影师、还有视效总监,他们对这套技术的理解和试验是需要过程的。一定要去拍了、踩过一些坑、有些总结,然后看效果不断提升,再尝试,再积累,才会有东西出来。

不管是电影还是剧,如果导演和摄影师比较开放、能够拥抱新的技术,那会好一点,这点很重要,有很多导演他不一定是这样的;

还有就是围绕着导演和摄影师和剧组的实时工具开发团队、虚拟制作现场技术服务团队、数字内容制作团队,他们得是专业的,在前期资产的准备上跟视效组有很充分的沟通——整个制作(流程)都被打乱了,放到前面去了,所以大家需要有这样一个深刻的认识。

原来大家就现场拍,拍完的问题放在以后解决;而现在是要先发现问题,在前面把问题准备好,现场拍掉就结束了。



△ 拍摄现场所见即所得



△ 后期前置,现场调节灯光和画面


这个颠覆很大,不仅是对导演和摄影师,对于视效公司,对于拍摄组,对于整个制片,对于甚至是整个预算如何分配、如何结算——你要先做资产的话,是不是要先结算?你的预算是不是要先给视效公司?是不是要预付制作费用等等这些问题,整个流程都变化了,所以影视制作方需要有这样一种意识去拥抱新的东西。

有了这个意识,再有比较专业的虚拟拍摄团队和数字资产视效公司,再配合导演摄影师,没有理由做不好,肯定能做好,只是说你这部片有多少的比例是用(虚拟)棚拍——你可能是一部分棚拍,一部分还是传统做法。配合得越好,可能(虚拟制作)比例会逐步越高,最后整个制作的效率就提高了。

画质其实你去看现在国外艺术和视觉短片,可以做得很好的,它基本上可以做到跟现在传统视效接近的水平,当然它也有一些缺陷,但它的优点也很明显。

总之要做好的条件就是,首先从意识上(改变),然后在拍摄和内容上不能有短板,拍摄的整套硬件和软件的设备要是比较先进的,否则再好的团队也做不好,这就是为什么我们要去支持商用级的、能够适合影视拍摄的虚拟影棚——这是一个标配,也是最低的标准。

软件和硬件我们可以想办法,或者找合作伙伴一起来;这样还不够,还需要平台、制片方以及导演来推动,他们会从上至下,大家一起努力会比较好。

虚拟拍摄团队不用很大,几个人就够了,但这些人都应该是比较专业的;视效公司也不用很大,剧组现场也不需要太多人,并不需要有庞大的团队,但是需要有合适的专业团队。

我们大概知道国内谁能做什么,如果有这样的项目、这样的心,有这样的想法,不管是平台方还是制片方,随时欢迎来找我们,Epic Games会尽所能来提供帮助。

说到虚幻引擎5对虚拟制片的支持,大家都很关心,这也是个很好的话题。

可以先去看看最新的4.27版本,其实针对虚拟制片已经加了很多功能,虚幻引擎5会把那些功能再提升和再丰富一下;围绕虚拟制片还会有一些新功能加进去,比如说色彩管理,比如说相机畸变,nDisplay相关的一些东西,首先会迁移到虚幻引擎5上,也会有一些新的试验性的功能,总之这些功能会一直加进去。

用虚幻引擎5做资产和资产的光影解决方案会更容易,而且效果更好,会比现在的版本要好一些,会更稳定、更完整,对影视肯定有更大的帮助。



△ 虚幻引擎5抢先体验版《古代山谷》演示片中的光影呈现

至于推出时间的话,请大家耐心的等一等,也许上半年就出来了呢。

“降低数字创作的门槛”是我们一直在做的,往后看的话,一是做“场景”,二是做“人”。

做“场景”的话,我们会把Quixel的资产库扩得更大、更多、更全,我们也会通过像ArtStation和SketchFab这样的平台,集成更多数字内容为大家所用,你在用虚幻引擎的情况下能够用到更多的资产。

也许将来我们会有更多的这样的合作伙伴,所以做资产会成本更低,能做的更好,效率更高,而且在虚幻引擎5上效果也会更好。



△ 虚幻引擎5抢先体验版通过Quixel Bridge“一键导入”高质量数字资产

做“人”的话,我们还是会持续迭代开发MHC,就是MetaHuman Creator,让它的库更大,更容易地做出你想要的数字人,甚至是可以做一些自定义——你可以做一些自己想要的模型,结合现在的MHC,把场景和人的门槛都降得很低,达到“消除创作障碍”的目的。

影视行业原来都是专业公司去做专业的内容,个人创作者是做不了的,以后就我个人的理解,短视频和中等长度视频会多起来,同时个人也能创作出专业的剧等内容。因为有这些工具了,你可以很容易很快地拍一段几分钟的短片、一个系列片,可能两三个人就可以组成一个团队拍了。

现在这些工具真的是越来越好用了,不管是实拍还是动画、不管是你要做场景还是做人——做动画,你一个人用数字人也能很容易去驱动它,现在也不需要去买什么周边设备,我觉得这个门槛会降得更低,以后民间创作者会逐步冒出来,明星级UP主就能做自己的短剧和动画片了,会去冲击一些原来专业公司的内容。

我坚信将来的短剧,短视频和中视频的质量会提升,也能讲故事,能够成系列剧,也能成IP,有些小公司(甚至)可以做出超级IP。

我们希望在这个浪潮中虚幻引擎能够起到技术支持的作用,希望能贡献我们的技术力量,让大家容易地做出IP,也让内容消费者能够喜欢上这些IP。


周澄清

Epic Games 技术客户经理



今年UOD恢复了线下形式,很多事情说得更明白,大家讨论的气氛会激发各种想法和灵感,我也可以更直观地去了解大家遇到的各种各样的问题和需求,便于我们后续在虚拟拍摄的研发计划中反馈到总部,让研发部门针对大家普遍性的需求进行一些研发,帮大家解决困难。

今年“虚拟制片”非常热。前两年还主要是小规模简单地搭个几平米的LED,做一下测试,而且前几年可能XR演出会用的比较多一点,今年我就发觉有大量的广告拍摄、视频拍摄,还有一些网剧开始用LED拍摄;当然现在也有很多导演摩拳擦掌想要在院线上面(使用),这可能是我们下一步的工作。



△ 虚拟拍摄作品

最重要的是,大家都认可了这项技术是未来——不管是拍电视剧、还是拍广告、还是拍电影,所有人都认可了“实时”一定是将来。

中国影视行业十分关注虚拟制片,一直紧跟着趋势,但各家根据自身实际情况,有些胆子大些,步子也大,走在前面,其他也根据自身情况做着研发和测试。

但最大的问题是,这方面人才非常缺。你在国内去找用虚幻能做出影视品质的人,相对国外可能更少,所以这其实也是我们明年工作非常重要需要改进的地方。

我们的大老板们其实非常重视(虚拟制片)这个领域,所以投入是非常大的。我们自己全球办公室大概就有四五个地方搭了 LED棚,去做专门的研发和测试。我们了解下来,全球有100多个已经搭完、或者正在搭的大大小小各类的LED棚,因为我们都有去做一些技术支持。

LED拍摄是“软硬件结合”的方案,我们非常擅长引擎实时渲染这块,但LED硬件不是我们擅长的,那些追踪的硬件不是我们擅长的,相机和物理灯光等等也不是我们擅长的东西,所以必须跟行业内最厉害的公司合作,一起推进这个技术。



△ 虚拟制片现场软件操作

当然我们也看到,不管是LED、还是相机和灯光厂商,他们也都意识到这是将来(的趋势),所以非常愿意配合我们做各种各样的测试,根据我们反馈的用户痛点,针对自己的产品做改进。你可以看到,现在LED的各种参数进步非常快。

还有一个要提的就是培训这块。其实昨天(UOD演讲)你应该听到了,我们会有一个叫“Third Party Service”的计划,如果后续我们找到了合适的合作伙伴,他就可以不断地去提供LED搭建、拍摄或是技术支持的服务,也可以承担一些培训的职能。

我们自己也有计划要在中国建一个小的测试用LED棚,这个东西做完之后,我们也会把它用作测试以及培训,如果需要的话,一些客户需要的培训就可以在里面做。

Epic Games在影视领域的培训,我们总部有个Virtual Production Fellowship项目,这其实是全球都可以申请的一个项目。第一期如果你申请后被审核通过,过就可以来参加一个脱产培训,(Epic Games)还倒给你钱,补偿你可能的误工损失。



后来第二期,就是今年,在前几个月举办了Unreal Fellowship的活动,培训影视行业的人从“非实时流程”转到“虚幻的实时流程”,其实我们明年也希望国内在软硬件都准备好的情况下,能做这样的事情。

刚才提到有网剧开始用这种方式拍,大家等把4.27的各种特性摸清楚以后,可能明年虚幻引擎5出来,各方面的效果会再往上升。

因为虚幻引擎5在渲染管线上有了重大更新,加入了Nanite和Lumen这两个“杀手级功能”,整个表现完全可以到达电影级别。我们需要保证现在所有虚拟制片的工具能跟这两个新功能完全配合工作,Nanite和Lumen必须能够在nDisplay里保证它100%的发挥能力,这是我们现在正在努力做的一件事情。

就虚幻引擎5的第一个版本来说,首先应该保证我们现有的那些虚拟制片工具能跟虚幻引擎5的所有新功能完美结合在一起,然后大家期待的一些新工具、新功能,可能需要等到下一个(小)版本再提供。



△ 周澄清在本届UOD上演讲《用UE4.27打造LED舞台》

我个人希望未来的3-5年里,虚拟制片能让整个产业做到“鱼与熊掌兼得”。

怎么解释呢?虚拟拍摄的实时流程让拍摄成本降下来,成本降下来后,可以把一些资源投入到创作或是去做更好的资产、做更好的特效、或是更好的布景,各方面就可以有更大的余地;

还有一点,就是希望不要只是看到它(实时引擎)的“快”,而是大家能把虚幻引擎5的功能用起来,真正把品质提升到尽量接近现有离线渲染这样的级别。

我希望虚幻引擎5实时渲染既能帮你省钱,又能因为它的快速迭代与不停修改,能帮你创造出更好的作品,鱼与熊掌都能够兼得。

最后必须补充的是,虚幻引擎的整个生态对虚拟制片作用会非常大。



△ 虚幻引擎“生态”

虚幻引擎5能够“吃下”任何高模资产,以非常流畅的帧率显示出来,那怎么获得这些高质量资产其实是一个很大的问题。

我们现在收购的各种资产类平台,ArtStation也好,Quixel Megascans也好,Sketchfab也好,这样的资产平台其实就是想帮助大家解决这个问题,让大家越来越方便地获得高质量资产,成本也越来越低,这样才能(形成)组合拳,让大家用得真正爽起来。

另外,为了保证国内的速度,我们很多服务在国内做了CDN加速,以保证国内用户的体验。


陈奕

时光坐标影视传媒 创始人CEO



这是我第一次参加虚幻引擎技术开放日,这两天我很认真地在听每一场演讲,吸收了很多新东西。

从好莱坞说起,卢卡斯、诺兰、斯皮尔伯格、卡梅隆,其实在上一轮商业片浪潮当中炙手可热的这些大导演,全部是“左手有很强的文学或艺术功底,右手特别善于了解和使用新技术”,我觉得中国影视行业这两年也到了这样的时间点了。

我进北京电影学院读书的第一堂课、听到的一句话就是:电影是艺术和技术结合的产物。所以它从艺术和技术两个维度都是有的,而且缺一不可,只有真正了解新技术的人,才能够在导演、或者在创作方向走得更好。

我们经常把这个行业称为“泛娱乐行业”, 不论是电影还是游戏,你满足消费者的是想象力的体验,如果不能用最新的技术不断去提升这种想象力,实际上很有可能就会落后。

中国影视行业发展也分几个阶段:我自己看到的上一轮浪潮,实话讲是从2016年左右开始,那时候三大互联网平台进入——就是优爱腾进入了,通过整个量的提升、当然也包括资本的提升,形成一个很大的热潮。

实事求是讲,这两年其实也受到一定的影响和冲击,不论是疫情还是其他方面的影响,但这个恰恰带来了一个好处,就是促使我们在上一轮热潮以后去很理性的去想这件事。

时光坐标过去几年做过很多大IP(剧),出品方觉得这个IP已经有几千万甚至几亿粉丝了,上去了以后片子一定好对吧?这是一个非常粗浅的想法。深究里面就会发现,它其实是两种媒介的转化。

如果我们从网文IP转化来看,它是一个文学世界的想象空间,所有读者都有自己的想象,影视难就难在你必须把它具象到一个画面上,而且这些画面还必须是超越想象的。

转化到影像的过程中只有视效吗?不是。其实是一个完整的影视创作团队的工作流。

如果在转化过程当中,大家不能在一个统一、可视化的制片环境下工作,你再怎么沟通,很可能它的误差性都很高。

我们已经用各种各样的方法降低沟通成本了,但艺术创作还有个“灵光一现”的问题。有时候在现场突然之间导演灵光一现,他可能就出了一个好镜头。

我和很多导演聊过,在可视化的虚拟制片环境里,当导演一旦了解了技术,他就会趋于大胆;但如果在一个不可视的情况下,比如说我们说到上一代的绿幕技术,其实很多导演会偏于保守——因为他并不知道最终呈现的会是什么样。

我觉得虚拟制片,或者用一个词叫“可视化制片”,在可视化的情况下,所有从业者全部都是视觉动物,他们会激发和碰撞出很多新的灵感。

虚拟拍摄好像是可以直接出背景了、保持了可控性,可能可以提高很多效率,但这只是它的第一层;但是我真的很在意第二层的优势,这也是它真正无价的地方。

我在拍摄现场接触过各种各样的导演和各式各样的人,我发现当大家在一个可以随时变换的空间中工作的时候,激发的创造力几乎是无穷的;尤其是一些年轻导演,他们更适合这样的拍摄方法,很可能咱们这个行业下一轮的创作高峰期可能就会起来,而且它出来的东西会让人耳目一新。



△ 陈奕

在影视行业引入虚拟制片,需要经历一个“两头跑”的过程。

任何一个行业其实都有自己相对成熟的流程,在成熟流程中,一头是“观念的改变”,这点改变起来是最难的。

我在以往做其他分享的时候,曾经分享过这么一个概念——我认为虚拟拍摄是一个广义和狭义的系统。

广义的系统是什么?它真的是一套制片体系,首先有两个非常重要的引领者或者说叫决定者,一个是导演,一个是制片人。制片人要会判断,判断在什么情况下适合使用虚拟拍摄技术、用不用虚拟拍摄技术,而导演要会用或者至少会想。

下面的体系中,一般我们现代影视的拍摄过程会有“四大指导”:摄影指导、美术指导、灯光指导和视效指导。这四大指导要会用,需要给上面的主创和制片人足够的支撑。

毕竟电影发展100年了,这个体系也是一步步迭代过来的。我认为现在刚好处在迭代的一个窗口期,或者说窗户纸已经被捅破了,但是还没有捅出个窟窿来,或者说一整扇窗户都被打开了,很多真正具有决定权的导演和制片人还处在一个观望期。

但我觉得至少从观念角度讲,已经到达时机了,导演和制片人的观念没什么可质疑的,可以转变了,这是一个方向。

另外一头,就是类似于我们时光坐标这样、当然还有很多同行业的公司,大家努力把技术做到能避免当中的很多的问题。

不论是我们前面提到耳熟能详的摩尔纹,还是现场是否能给予一套真正如我们想象那样的实时性服务,变化起来非常快、也非常及时。

当导演和制片人发现这东西真的可行的时候,我相信它突破的时间点会是一个几何级。现阶段可能是一个小荷才露尖尖角,但这个东西一旦铺开了,它可能就是大量铺开了。

举个例子,我今年在拍一个项目,就能看到导演经历的变化:

导演一开始在和我沟通时不断问,这个地方透视角度对不对?那个地方帧率对不对?色彩对不对?那是前三天的情况;到第四天,导演坐在我旁边,他突然跟我聊一个事儿,他说你月光的逆光只需要在那个位置上稍微再提亮一点,很可能我们的场面就更美了......

在那个瞬间,我长出一口气,首先我觉得我们现场的技术服务至少基本达到导演需求了,他已经不再想所谓的技术问题了,更多时候我发现导演开始借助这样的新工具想创作和美感的问题了。

这是一个跨越,而这个跨越说直白一点,既对我们虚拟拍摄或者技术团队是一个突破,同时可能反向对这位导演自身也是一个突破。



△ 影片的虚拟拍摄现场

我并不认为(虚拟制片)难突破,因为除了技术之外,大家是在一个统一的可视化语境下对话;早期我们基于绿幕或者非实时的情况下,其实导演和视效公司之间碰到的问题更多,更痛苦。

导演老觉得“我不停降低自己的需求,反正你做也做出来了,我这片子也快上映了,差不多可以了”;(我们)也会觉得“我好委屈,前面你明明告诉我的是这样,怎么到我做的时候就改了或怎么样”,我们经常碰到各种各样的返工问题。

那个情况我们都过来了,而现在我们在现场是有一个可参考的东西的,我认为在虚拍情况下,既能暴露出好的东西,也能暴露出不好的东西。

比如说我们看到那个画面说光不对、色彩不对、透视不对,当这些问题被真实暴露在所有主创面前的时候,要不就是现场直接解决,要不至少我已经有一个心理预期了,知道我们该往哪个方向去改进,即便是通过后期的方法。

所以我始终抱着一个乐观态度,到了现在这样一个情况下,我认为努把力,只要我们的技术能不断提升,让现场能达到这种工作状态,可能反而会理顺我们以前碰到的很多问题,所以这也是我自己对这项技术特别有信心的一个原因。

我觉得今年UOD活动邀请时光坐标来,这本身也是一个很明显能看到多方一起在努力的现状。



△ 影片的虚拟拍摄现场

电影本身就是虚拟的,美术置景也是虚拟的,其实我们很少在真正实景拍摄,反而经常会在影视基地、摄影棚拍摄,那个场景不是真实的,也是搭出来的,导演其实特别擅长在那样的情况下工作。

我们现在只不过是把那样的物理空间还原到一个更数字化的状态,我们要解决的问题是它的真实度,它的可控性,它的实时性。另外它有它的优势,就是可变性,它特别的灵活。

我认为有一种对未来趋势基本准确的判断:无论是绿幕拍摄、还是LED虚拟拍摄,都可能是过渡阶段,未来影视会进入“全虚拟”状态。

任何影像呈现都需要介质,无外乎介质是什么,LED也是一种介质,这种介质我客观认为它也有它很多的问题:

第一个,至少现阶段的成本会比较高,第二个就是基于LED的显示技术,它本身有自己的缺点,比如说摩尔纹、色准等等这些问题,现阶段其实是用了这样一种介质,以目前这个阶段最好的呈现做出虚拟场景,所以它就在现阶段成了热点。

但下一代介质是什么?包括卡梅隆说后面到底会不会有裸眼3D、会不会有全息影像,但是现阶段可能还有很多技术问题不能达到——VR为什么要带个头盔?什么时候最起码变成像我们这么小的眼镜?所以只要介质能突破,影像一定会被突破。

面对这样的技术趋势,时光坐标有一些自己的思考。

影视行业在意的无外乎是数字资产的提供能力,左手有介质了,右手必须得有好的内容。

你会发现,这一轮虚拟制片(热潮),不论国外还是国内,最早好像都是视效公司先跳出来、开始推动,但背后会有很多技术平台,包括内容平台都会跟进;(原因)很简单,因为视效公司以前就有比较高真实的数字资产和内容出产能力。

我们还是比较一下游戏跟动漫行业,虽然动漫现在也越来越接近真实,但是实话讲和真正的影视级真实还是有一定距离的。

在《曼达洛人》之后,很多导演都在跟我们聊说,可不可以做一些相关的技术沟通,因为终于在虚拟的数字资产形式上,让影视人看到了高真实的可能性。

只有数字内容越来越真实,达到所谓院线级电影的要求了,才会引起影视圈一些导演们或者是那些大艺术家们的关注,我觉得这个是虚幻引擎5让全行业看到的未来;也恰恰是基于这个能力,它突然之间就延伸出了对应的数字虚拟拍摄等等。

为什么会有流程的改变?恰恰是品质和实时性越来越近了,以前这是一对矛盾,但是现在它们有交汇的可能了,那就让行业一下子发现又一扇大门被打开了。

我们也特别希望从内容创作上做一些测试,在试验技术的同时试验内容。

在这里先小小地卖个关子,我们的年轻导演用虚拟制片技术拍了一些科幻实验短片。我最早就是想试验技术,但后来发现既然已经做了,我干嘛不把影视最核心的故事给加进去,最后这么一做发现效果还挺好的。

而且我在现场观察的时候就发现这种实验对年轻导演的帮助。因为实话他们的拍摄经验并不是很多,但是在这样的创作环境下,我能感觉到他们眼睛在放光,所以这就是很好的未来趋势。



关于“影游联动”我的观察是,游戏有一种极强的能力,就是互动性、实时的交互性。

不论是动漫还是影视,电视剧电影它其实相对是一个单向传输的过程,游戏是一个实时交互的过程,这是这种两种不同的形态所决定的。游戏公司在满足交互性的情况以后,其实游戏背后也是一种文化,它会更关注叙事性。

我们去看宏大的游戏,首先第一个它一定会有文学或者美学上的一个渊源。包括我们说很多科幻都有像《基地》三部曲这样的渊源,其实游戏也是从传统影像美学和文学美学当中提取了很多灵感。

现在既然游戏已经满足了很好的交互性了,它完全可以去完成一个更好的、至少是一个世界观背景或者叙事性。

影视人先天想的第一件事情就是故事,我们所有人都在围绕着讲好一个故事,当游戏到一定的时候,它就会发现原来叙事能力其实很重要:我们能不能在这里面融入更多的情感,融入更多的故事?在这个过程当中,我认为这两边(游戏和影视)应该也可以有一定的互补性。

而这次虚幻活动开场演讲用的标题是“下一代交互叙事”。

我看到这个题目就特别的感兴趣,因为提到了“叙事”这个词,这是我们影视人特别敏感的两个字,发现居然在UOD这样的地方出现了,就像你刚才所说的,这是非常关键的一个点,它已经关注到叙事本身了。



翁冬冬(左)

北京理工大学光电学院 光电信息技术与颜色工程研究所研究员

宋震(右)

中国人民大学文化产业研究院助理院长 文化科技融合中心主任



Metahuman Creator出来之后如一记惊雷,对整个数字内容产业产生了几方面重大影响:





第一个方面是流程。

以前影视动画公司或游戏公司各有各的流程,每家流程都不一样,也不兼容,其实这是一个挺严重的工业化问题——因为没有一个完整统一的工业化标线,所以从制作到评估,都没有统一的标准。

Metahuman Creator在这方面给我们提供了一个很好的标准化平台。

也就是说,最后制作完成以后能达到什么样的标准?制作过程中,比如说在材质、动画、模型……各个方面应该遵循什么样的标准?其实Metahuman Creator是打了一个版,它不是效率的问题,而是让大家有了统一的语言去说话。

以前聊到高精度数字人的时候,可能每家都有自己的绑定系统,每家都有自己的网格系统……大家都有点类似是作坊。有了Metahuman Creator以后,如果大家都遵循一个标准,其实相当于有了工业标准,预计在未来将更有利于产业化。



△ 翁冬冬(左),宋震(右)

在此,我想跟所有做电影的人用句流行语喊一声:百年未见之大变局到了!不是逐渐发生的,而是完全不一样的,在未来可能整个影像制作的理念都会发生天翻地覆的变化。

以前影像制作是把真实的产品记录下来,然后我们开始往里不停地加想象中的东西,变成一个造梦的工业;但造梦工业说到底还是以拍摄为主,这个“根”在电影行业是没有变过的,不管怎样都是“以拍摄为主导”的生产路径。

但当Metahuman Creator出现以后,它把最后的一个拼图板块补齐了。

其实之前虚拟制作大家已经在用引擎去代替场景了,但为什么不能用它完全直接出片?因为没有人,只能拍场景,演员就只能用真人。

但现在最后这个板块填进来了,我有“人”了,实际上它已经构成了一个闭环。

这个闭环虽然现在不敢说它就已经多么好,但是它已经是闭环了;当它成立的那一天起,我觉得可以进入倒计时,传统影像的制作流程可能要发生大变化了。

也许三年后可能大家会非常习惯影片就是没有演员的——为什么一定要有个演员呢?



△ Metahuman Creator的数字人实现效果

现在用LED屏的原因是人的精度不够,只能实拍人物然后跟LED屏合在一起;如果人的精度够了,没有LED屏,可以直接在里面拍,要什么有什么。

新的技术迭代很快,现在至少我们在内部已经看到很多完全没问题的片子了。

当然它还很早期,但实际上趋势已经看得见了——都不是说我们在谈一个5年之后的未来,可能就在今年明年,你会陆陆续续看到各种各样的(作品),大家就会觉得到日子了。

这是个颠覆性变化,整个生产流程和创作理念都不一样,因为你不再是去记录一个真实的影像。所以我觉得随着虚拟技术的发展,可能会对整个电影的创作模式、创作方法理念等等产生非常颠覆的影响。

我觉得在这种技术变化比较快的产业,拥抱技术变化是基本常识。



以前影像的创造被专业人士把握着,象征着一种权利;当它(创造)变得足够廉价、足够方便的时候,任何人都可以创作。

其实现在很多行业都是这样:抖音快手的内容并不是专业人士做的,而是小团队,独立团队做的,目前的这些技术我觉得更适合互联网的生态。

你看现在做短视频的话,已经不太需要声优了,我们可以用AI创造声音,并且付费使用;

人的形象,未来你可能觉得这个演员好,我就付费用一下,反正对演员没有任何伤害,当然你要是违法那就得另说,那是伦理问题;

场景的话,像现在Quixel的场景,已经基本上是超级写实的了,可能比你拍的还好。实拍你还要调灯光、还要封路,现在不需要,什么都不需要。

这些成本会急速下降,是指数级的下降,并且它的工具会变得便捷。

团队变小了,更多小团队去释放想象力;人民群众想象力无穷无尽,可以比导演想的东西更丰富。

咱们是在聊电影产业,如果聊电影艺术,那艺术一定要坚守本心。最后电影如果坚守这一块,一定会有人喜欢,但可能会变成得小众。

在这种趋势下,还是会有很多事情要做、很多问题要去解决。

数字人这个领域里能做的东西还很多,包括Metahuman Creator,它也只是个技术平台,最终总是需要大量的数字人;另外数字人也需要更好的驱动,包括跟AI的连接,还需要大量的服装、妆容、发型发饰,甚至各种各样的表演。

数字人其实目前已经慢慢能看到生态了:有数字人的创造公司,他会设计这个人的形象和人设;有数字人的运营公司,把它当成一个真人去运营,去接广告,去露出,各种宣传;还有数字人制作公司。

制作公司又分成很多块,我们可能关注的是,按照它的设计怎么把人造出来;还有的是,有了这个人以后,怎么拿这个人去做内容,它的产业链很长,还没有被开发。

现在有很多公司已经进来了,但是还不够完整,因为它太新了。我觉得明后年估计会慢慢形成一个比较完整的生态,该有的都会有的。

还是用现在的“AI配音”举例,其实现在声优过得挺好,有专门的声优平台,只不过门槛变高了,声优作为一种以声音沟通的网红,在平台上活的非常好,所以其实技术在变,需求也在变。

最后聊聊我们在做的“梅兰芳孪生数字人复原项目”。



△ 由中央戏剧学院、北京理工大学共同发起,后者参与研制的全国首个高精度京剧数字人“梅兰芳孪生数字人”,得到多家单位和梅兰芳先生家人及弟子的支持

我们是做技术的,但是我们又觉得文化是一个非常重要的东西。现在整个世界其实说到底是文化之间的摩擦和对抗,如果你被其他文化侵入了,可能慢慢就丧失了你自己的东西;但如果你的文化能弘扬给其他人,让更多人认同你的文化,可能就会更有利于你的发展。

其实中国文化特别有包容性,就说明我们的文化本身确实有它好的地方;而且从历史上来说,没有断代的文明古国也只有我们。

文化是传统的,是不可以变的,技术是新的,但这两个之间好像也没有什么天然的屏障,所以我们就想尝试一下最新的技术和最原汁原味的文化能不能合在一起。

这是个纯公益项目,如果有人想跟我们合作,非常欢迎联系我们。

-END-
页: [1]
查看完整版本: 深度内容预警!虚拟制片的现状、经验和未来...Unreal Open ...