随着 Deepfake 技术的普及,人们也开始日渐担忧它可能扭曲我们对现实的感知。PNAS 上的一项新研究表明:人工智能(AI)合成的面孔,并不仅仅会欺骗那些认为他们可能真实的人,甚至较真人更易取得大家的信任。回顾 2018 年,英伟达展示了可为不存在的人制造超真实照片的技术,让全世界为之赞叹。
其依赖于所谓的“生成对抗网络”(GAN)算法,利用了两个神经网络的相互对抗。 其中一个试图分辨造假,另一个则持续尝试生成更具说服力的版本。只要算法与时间得当,GANS 就可以产出足够以假乱真的伪品。
研究配图 - 1:真人 / 合成人脸的辨识率呈两极分化态势 自那以后,以 Deepfake 为代表的技术实力已有很大提升,但也带来了一些忧虑 —— 色情报复和诈骗者或更易得手,乃至破坏公众对媒体的信任。 即使有反 Deepfake AI 算法,但在潘多拉的魔盒被打开之后,这道真假攻防战早已陷入了泥潭、辨识准确率甚至接近于随机瞎猜。 作者在文中写道:“我们对 AI 合成人脸照片的真实感评估表明,算法引擎早已越过了恐怖谷效应的区间,能够创造出比真人更加难辨、且获取公众信赖的人脸”。 研究配图 - 2:受试者的辨识准确度分布 测试期间,研究人员利用了英伟达新版 GAN 系统训练了 400 张人脸,且分组中涵盖了不同性别和四个种族(黑人、高加索、东亚、南亚各 100 张)。 测试使用的真假面容已事先被不同的神经网络判断为相似,然后他们通过亚马逊 Mechanical Turk 众包平台招募了 315 名参与者,每人都被要求从组合数据集中辨识 128 张面孔。 结果发现,他们的猜测准确率只有 48%,甚至不如抛个硬币来瞎猜的准确率。此外考虑到 Deepfake 通常具有特征性的缺陷点,研究人员又对另外 219 名参与者展开了第二轮实验。 研究配图 - 3:置信度的两极对比 在辨识之前,第二组受试者事先接受了一些有关注意事项的基础培训,然后其表现也仅“略有改善”,达到了 59% 。 最后,研究团队想要从对面部感知更直觉的人群中找到如何提供更好的线索 —— 通常我们会根据难以确定的瞬间来作出决定。 但当让另外 223 名参与者对 128 张面孔的可信度进行打分时,他们再次被惊到 —— 因为大家更容易被合成人脸所欺骗(较真人高出 8%)。 研究配图 - 4:一组具有代表性的真人 / 合成面孔 虽然差距不大,这项研究揭示的差异,还是极具统计学意义。研究人员指出,假面孔得分更高的部分原因,是因为他们更加普通,且之前的研究发现大家更易相信这些“平均脸”。 有关这项研究的详情,已经发表在近日出版的 PNAS期刊上,原标题为《AI-synthesized faces are indistinguishable from real faces and more trustworthy》。 |