欢迎光临散文网 会员登陆 & 注册

朋友的iPhone 12到货了 试了一下Dolby Vision HDR视频拍摄

2020-11-01 16:30 作者:张来吃  | 我要投稿

在上手iPhone 12之前,基于发布会和官网资料的猜测,参考过去影视制作的流程以及技术特性,其实有点难以判断Apple和Dolby这一波的合作结果的完成度有多高,毕竟按照Apple的一贯作风,用户体验没有达到一定的要求之前不会贸然把这种新功能加入到自家这么重要的产品上。


结合此前已经体会到的,在XDR上优秀的HDR内容呈现方式,以及软硬件层面多年的铺垫(iPhone 8 起加入HDR内容回放的软支持到现在_____年了),也算是印证了Apple过去一直习惯使用的一套玩法:现在“不那么大众化”的产品上试水,如果🆗就加入到iPhone这类重要的产品线上以免可能的翻车或者干脆砍掉。


所以前些天各种猜测的答案就在拍摄记录下的文件中体现了:


各位有心可以逐行细品



不过今天我们先从用户体验的角度来看看


作为一个面向普通大众用户设计的产品,面对HDR这类新鲜事物的主张,技术上要考虑的重点之一应该有“兼容性”,一方面是要减少学习成本,另一方面则是要确保内容在不兼容的环境下也能得到一个还算过得去的结果。因此我们可以看到iPhone版的Dolby Vision与影视制作环境下的Dolby Vision原理上的一个根本区别就是HLG,而非PQ的应用。


这样一来即便是我们将拍摄的内容放到一个不支持Dolby Vision的HDR设备上,至少可能被识别为HLG+2020,也就是额外的动态元数据没有被用上而已;更糟糕的情况也是被当作Rec. 709来对待,那么对于毫不知情的观众而言,看上去的画面没有“过”(动态范围处理不当被裁切)没有“紫绿”(蜜汁问题)没有“变灰”(PQ被当作1886)等等,只是饱和度有所下降(2020被当作709),画面稍显灰暗(HLG直接拿去作为1886),也还算“过得去”了。



当然以上问题在Apple自家的体系下基本不会出现这样可怕的结果。iOS 14.1之前早就支持了HDR内容的回放,包括但不限于“影视体系下”的Dolby Vision(PQ+2020+IPT之类),14.1起,即便是不支持拍摄甚至真·HDR显示的设备也能编辑由iPhone 12拍摄的Dolby Vision内容,也就是说朋友Airdrop给你一堆他拍摄的素材,你也可以顺利地把素材剪辑到你的vlog中。


以上“次要”的准备自然就满足了,在iPhone 12上,默认就能放心地启用Dolby Vision HDR视频的拍摄功能,除非你进入相机设置下去手动关掉它,或者在12/12 Mini上开启了60帧录制这种并不支持的规格。



一个细节


视频内容我们很多人都会顺手截图,在SDR下,一个709内容截图并在sRGB环境下显示似乎并没有给我们带来特别大的问题,但如果HDR呢?


首先HDR的内容对于影视制作从业者们的一个传统观念是,与SDR完全不是一个体系不是一个世界。最简单的体验是,要观看HDR内容我们都需要在HDR监视器/HDR电视上,执行【切换显示模式】这一过程,通常也不大会将SDR内容直接放进HDR影片中同时呈现,虽然可以通过一些技术转换得到。


甚至见过一个反例:在某安卓手机上观看HDR10影片时,整个屏幕虽然顺利地切换到了HDR显示模式,但此时所有的用户界面元素,播放暂停音量按钮甚至顶部弹出的其他App的推送消息,没有任何处理地被直接放进了HDR显示环境下,变得非常刺眼。


这样一来就造成给人一个二者似乎不可调和的印象。但自从XDR发布后这个问题似乎有了一个漂亮的回答,HDR内容完全可以在SDR显示环境(用户界面)中在某个区域部分显示。



这一体验很难在非HDR设备上得到,不过一个有趣的比喻希望可以帮助大家理解:

过去SDR下的观看环境如同在一个阳光充足的室内中欣赏一个纸质的印刷品,不能既很明亮,还能做到一片漆黑。但这中间突然出现了一个HDR画面时,如同在纸上开了一个洞,透过这个洞你可以看到耀眼的夕阳,鲜艳的霓虹,或者深邃的星空。只可惜你并不能与别人分享,因为你没办法去每个人的纸上都去挖出这个洞。


那么现在在iPhone 12上也理所应当地做到了同样的事,进入相册里播放录制的HDR视频,我们能注意到画面中明亮的部分甚至超过了UI中白色的元素,“比白更白”。负面的影响就是,似乎会给一部分人一个,“HDR不过是画面更亮罢了”的误解


此时回到刚刚说的,顺手截图,并与视频来回比较一下,截图还是变成了一个普通的图片(录屏同理),按照Apple一贯的风格,相信这其中应该会有一个色调映射的过程,从而确保画面基本的质量,而非直接把HLG+2020放进sRGB中。


说到色调映射,这也是对于Dolby Vision最关键最核心的一点,或者说为何“这也算是Dolby Vision?不就HLG+2020跟广电标准相同么”。按照官网的解释,首先动态元数据在拍摄时就实时分析得到并写入文件内,而这些动态的元数据就是用于在不同的观看条件下对画面进行映射,从而确保得到一个满意的观感。至于PQ还是HLG,目前看来当然不是一个死板的规格,一切以一个综合的考量而定,例如上述的兼容性问题等等。



虽然官网提到了最终画面由两帧不同曝光的画面共同得到,但目前至少在室内较暗的场景下,简单的测试后并没有看到可见的由于两帧融合形成的重影(参考RED的HDRx)


有了一个更好的显示环境的上限后,我们就有希望可以拍摄出更理想的画面,或者就如过去刚接触HDR时所理解的:给创作者们一个更大的施展空间。按照木桶效应的话,长板变长了,短板当然还在:


毕竟还是消费级的便携拍摄设备,在许多糟糕的环境下并不能满足我们更高的需求,例如暗光环境下,画面整体而言虽然是比过去的iPhone好了不少,但和专业级的设备比起来,细节上还是差了很多,因降噪而产生的涂抹多多少少还是会有;传感器本身的素质仍然满足不了更高的对动态范围的需求;HEVC即便是10bit的编码,对画面的影响仍然不可忽视。


接下来我们还会看到Final Cut Pro X将会以何种方式支持对这部分素材的处理和支持,毕竟进入了后期环节,HDR、SDR素材混用的情况是100%会出现的,参考过去FCPX的设计逻辑,相信并不会给你很多的可控选项去解决一些细节问题,一些都是尽可能“智能”的方式去完成它。如果可以顺利地完成稍微复杂一点的HDR影片的导出工作,对于专业人士而言才算是真真正正打通了整个从拍摄到观看的完成流程。


有了Apple这么一波良好的示范操作,不用很多篇幅大家也能想象得到会有多少软硬件厂商跟进HDR内容的普及了吧。


一个彩蛋


稍微仔细一想你可能会想到,HDR视频通过可能还不支持的App分享出去会怎样呢?


以日常使用频率最高的微信来说,我们尝试将12拍摄的Dolby Vision HDR视频分享给PC端、Mac端以及Chrome网页端,可以很明确地看到从微信出去的时候经过了一轮压缩,虽然编码变了,但好在HLG+2020的标签得以保留。



那么接下来问题就变成了就是各个平台对HLG+2020的影片如何处理了,例如在Chrome中默认就变成了下图右侧的样子,而PC端微信内则是左侧的样子。



朋友的iPhone 12到货了 试了一下Dolby Vision HDR视频拍摄的评论 (共 条)

分享到微博请遵守国家法律