日本PS面部技术,滋生各种问题
现在,随着时代科技的进步,AI换脸技术早已经不是什么梦想
不少的犯罪分子甚至将一些明星的样子放到了别的人的照片上,然后再进行上传发布

但这些行为均侵犯了他人肖像权,是恶劣的犯罪行为!

关于AI换脸犯罪最前线,我们今天就来一起听一听樱美林大学,平和博教授是怎么解析的
平和博教:除了以往的照片AI合成以外,现在非常流行AI合成脸的视频制作,简单来说就是使用其他视频,将视频中的主角的脸换成别人的脸,而且看上去非常自然。那么这些视频究竟怎么制作的呢?

为了合成一个自然的换脸视频,制作者需要准备对方(艺人)生气的,笑的,无表情等100张以上的照片

AI就能通过学习对比照片中的表情特征,脸型,角度等,将受害人的脸用一种非常自然的方式贴在视频中,如果是普通视频还好!万一这些犯罪的人将受害者的脸贴在一些成人视频中的话....

主持人吐槽到,我们以前看那些换脸的照片,都是破绽百出的,因此不用担心,但是现在的技术,要是一个有名的女明星被合成到一些视频里的话,而且那个视频是那种....其影响的后果可想而知

主持人的担心其实早已成为了现实,在Twitter上发表自己的受害女优,甚至是好莱坞女星也在急速增加

平和教授还提到,如果是一些正规的视频网站上的合成视频,一般的用户是可以分辨出真假来的,但是相对的,在朋友圈(SNS)里流行短视频或是一些不雅视频,那么能分辨的人就会大幅下降,考虑到视频本身的清晰度,更加地可以以假乱真

更加让人担忧的是,AI换脸技术目前以一个超高性能的速度发展着,以前是需要100张照片才能做到以假乱真的换脸,现在只需要一张即可,因为这一技术被泛滥使用,换脸侵权的犯罪案件已经不仅仅局限于有名人,连一般人也成为了犯罪分子的目标

日本就曾经有过这样一个案例,一对情侣分手,为报复对方,男方竟然向女方发送一段不雅视频,而这个视频其实是通过了脸部合成而来的

随着人工智能的不断进化,新的犯罪将接踵而来,教授还提及到声音同样可以进行替换,只需要收集受害人的声音让AI进行分析即可做到

而这一犯罪也早已经出现!就在前段时间,欧洲的某家公司的总公司社长给子公司的人打电话,要求对方转账2000万日元(126万元)到他的账号里,后来经过调查,该社长的声音其实是由犯罪分子用AI合成的

主持人:这个对普通人来说已经很难分辨了!要是用在“猜猜我是谁”的电话诈骗里,上了年纪的人还真不知道如何防范啊!

让我们回到正题,面对这些进化速度极快的假视频,我们该如何识破呢?

对此,平和教授的回答是:我们可以通过视频的人物表情进行判断,例如眼睛一直是睁开的,表情坚硬,鼻梁扭曲等等,但是可怕的是,随着技术的进步,这些都会被一一改进...