苹果又妥协了!系统新功能惹争议,苹果延迟上线iOS 15重要特性!

不同于乔布斯执掌苹果公司,库克接任CEO后风格柔和了许多,从发布iOS 7扁平化UI开始,到往后多次争议性的各种功能延期。在即将发布的iOS 15固件中,显然也存在着诸多争议之处,比如允许关机并拔出SIM卡后保持“查找”网络继续在线,通过蓝牙信号借附近iPhone传回定位数据等。也有相关科技资讯提到,苹果公司又妥协了,一项iOS 15重要特性将延迟上线!
苹果公司宣称耗费巨大研发资源与精力、酝酿多年才准备亮相的“CSAM”计划,原本打算跟随iOS 15固件发布正式推出。这项重要特性,从被安全研究人员逆向编程检索代码发现,一直到苹果公司官方承认并宣布即将上线,遭到苹果产品用户、全球各地相关机构、乃至德国官方机构质疑!

一些科技资讯平台指出,苹果将“安全扫描特性”命名为neuralMatch的系统程序。但苹果公司阐述的的技术实现勾勒场景,甚至让普通“小白”用户都感到不可思议:苹果用户将iPhone等设备升级iOS 15固件后,手机相册将遭到neuralMatch系统程序“实时扫描”,用于查找和阻拦涉及儿童色情的图片,同时将“证据”交给执法机构。不止扫描离线iPhone手机相册,苹果用户的在线iCloud云相册,也会遭到苹果服务器端的“实时扫描”。
假设是未成年用户,使用苹果自带iMessage信息对话程序时,如果接收到涉及儿童色情等不良内容图片,还会自动“打码”进行警示。如果未成年用户“态度强硬”,非查看“不良图片或视频”内容,其父母等合法监管人,将同时收到“相应的提示”!比如,某位小伙伴查看了“涉及儿童色情”的图片、视频等内容。

假设是成年人群体,发送此类“涉及儿童色情”等违规图片与视频内容,在经过苹果官方工作人员“二次审核”确认后,相关“证据数据”将递交给执法机构!如果不是误判(技术误判+人工误判),大概率会被当地执法机构“请去喝茶”。也就是说,苹果不仅仅是使用系统程序扫描iPhone等设备的本地和在线相册,还会向执法机构提供“证据”等关键数据,协助逮捕“涉及传输色情等违法内容”的苹果用户。
没有任何意外,引起较大争议后,苹果又妥协了,将延迟上线iOS 15重要特性!倒不是苹果公司的出发点问题,而是内置iOS系统的neuralMatch程序,技术实现起来存在大量的问题!
苹果公司官方对外宣称的是,不会直接扫描iPhone用户相册内容,而是通过照片的“哈希值”进行“脱敏数据”比对。然而,苹果公司也在解释中明确透露了,将会使用美国当地相关机构的数据库。几乎所有反对用户与相应机构的质疑中,都提到了“对美国当地机构数据库不信任”!

简单来说,谁也不能保证“美国相关机构”提供的数据库绝对没有遭到“针对性”的内容修改或投放。假设这些“动了手脚”的美国机构数据库中,添加了作用于其它不明意图的数据样本,岂不是成了美国方面“针对性”扫描的工具?
与此同时,还有另一项明显的BUG存在,通过比对照片“哈希值”的方案查找“涉及儿童色情”的违法内容,一度遭到相关安全研究机构的吐槽,很难相信如此“愚蠢”的技术方案竟然是来自苹果公司的设计。要知道,随便对一张图片稍加修改,诸如添加个文字、增加一个像素点,都会改变图片原本的“哈希值”序列。

这也就意味着,只要对涉及儿童色情等内容的违法图片“稍加修改”,苹果这套原本准备跟随iOS 15发布的“iPhone相册扫描”程序,就无法通过数据库执行所谓的“比对”!当然了,苹果公司应该进行过AI样本训练。比如,即使对涉及儿童色情等违法内容的图片进行了修改、改变了图片原有哈希值进行对抗,也会被AI样本精准识别。
一个更尴尬的小插曲是,在相关安全研究人员的测试中,发现即使很多内容完全不同的照片,也会存在哈希值“撞车”的问题!可以想象下,一头老牛吃嫩草的照片、一个人类正常活动照片,出现哈希值“撞车”,导致苹果neuralMatch程序“误判”,进而转到人工“二次复审”,将是多么崩溃的事情。

本着“科技向善”的角度,苹果开发“反儿童色情”系统程序,扫描iPhone用户相册中的照片、视频等,确实有利于打击“涉及儿童色情”等违法内容。但外界并不相信美国当地机构,以及对应的数据库样本,也不认为苹果耗费多年研发资源,真的只用于“安全”扫描色情违法图片。
一些苹果用户群体、公益性倡导团队,以及德国官方相关机构,都发出了质疑声音!不少网友调侃,也就是苹果的iPhone产品“出头”,假设国产手机先实施此类方案,必定会遭到更猛烈的“添油加醋”扭曲炮轰,毕竟苹果带头的阻力也很强烈。

从苹果官方发布的公告来看,引起较大争议后,苹果又妥协了,延迟上线iOS 15重要特性,也就是实时扫描iPhone相册技术方案。不过也别想太多了,一项iOS 15重要特性将延迟上线,并不意味着苹果“真实移除”代码!
在美国英特尔实验室的研究人员发现,两张不同照片能够运算出相同的哈希值“技术问题”之前,已经有其它安全机构的工程师发现了“更严重”的问题!针对苹果iOS系统固件隐藏的API执行逆向工程,并将MobileNetV3模型导出ONNX、基于Python环境重建NeuralHash算法后,基于Linux环境汇能测试NeuralHash。简而言之就是,在现有的iOS 14.3固件中,已经存在“扫描iPhone相册”的技术代码!

严格意义上来说,苹果公司宣布将随iOS 15发布的CSAM(儿童性虐待照片)扫描程序,真的只是“发布”后上线,因为这些新特性的代码早就潜伏在iOS 14.3固件。这套系统程序早出现在iOS 14.3隐藏代码,苹果却宣称将跟随iOS 15固件正式上线,基于AI神经网络的“图像感知哈希”方案,变成了苹果NeuralHash扫描系统的模型。
一项iOS 15重要特性将延迟上线,表面上看是在引起了较大争议后,苹果才“万般无奈”的又妥协了。实际上,只是延迟早已隐藏在iOS固件中代码的“曝光”时间而已。此前针对第三方App调用设备标识符,苹果也在“被迫延迟”上线时表现的很无奈,却掩盖了用于精准广告投放的“设备识别码”方案,本来就是苹果自己搞出来的。不得不承认的是,库克太会玩了。对此,你有什么看法?