随着人工智能技术的发展,虚假新闻特别是深伪(Deepfake)音的制作已进入低成本、低技术知识的阶段。有分析认为,世界或将进入一个信息真假难辨的阶段。
“虚假音带来的最大问题是信任体系的崩坏,将给政治、经济和社会造成极大的危害。人工智能技术虽已能鉴别部分的虚假音视频,但道高一尺魔高一丈,同虚假音视频的斗争必将是一场持久战。”纽约州立大学奥尔巴尼分校计算机工程系副教授、计算机视觉与机器学习实验室主任吕思伟近日在接受科技日报记者专访时如是说。
人工智能驱动的虚假新闻催生信任危机
电子媒体的兴起和普及,使人们每日接受的新闻信息量要比10年前增加数百倍。但泥沙俱下,各种自媒体和社交媒体中也充斥着各种各样的虚假信息。人工智能技术的快速发展,进一步让虚假视频新闻的制作门槛越来越低,逼真度却越来越高。人工智能“换脸术”去年曾将《神奇女侠》女主角盖尔·加朵的脸嫁接到一个成人女星的身上,引起轰动。
吕教授指出,大部分非专业制作的虚假视频新闻其实都非常粗糙,稍有知识的受众都可以甄别出来,但由于传播平台的指数级增加,信息如洪水猛兽般涌向受众,快速分散着受众的注意力,加之视频本身的质量和分辨率等因素,受众在很短的时间内根本难辨真假。受众基于自身兴趣,条件反射般地进行转发,也对虚假音视频的传播起到推波助澜的作用。哥伦比亚大学心理学研究表明,注意力经济(眼球经济)的结果是人们的注意力被分割得越来越小,对信息的专注时间甚至已经短于金鱼。
事后补救虽能起到一定的正本清源作用,但虚假音视频传播所造成的巨大负面影响业已造成,很难在短时间内消除。而且虚假音视频的不断涌现,使政府或当事人疲于奔命澄清事实,久而久之,整个社会的信任体系就会分崩瓦解,形成公众对任何新闻事实都不相信的情形。
今年6月初,美国纽约媒体实验室召集媒体界、学术界的相关从业人员举办了一场虚假新闻恐怖展,就人工智能等新技术可能产生的虚假宣传和错误信息进行研讨。实验室执行主任贾斯汀·亨德里克斯说“只需要几个大骗局就能让公众相信没有什么是真实的。”吕教授也认为,虚假新闻造成的最大问题是,当新闻可以虚假时,真实新闻也会变得“不真实”,最终造成受众无法相信任何新闻的窘境,对社会来说,这是一场史无前例的信任危机。
利用机器学习弱点找到虚假视频破绽
吕教授表示,“换脸术”的机器算法是利用大量的脸部图像训练出来的,这有点像机器翻译,可把一种文字翻译成另一种文字,而换脸虚假视频的算法“翻译”的对象是人脸,把原始人脸的表情特征提取出来,然后用一张脸去表达相同的表情特征。
为了找到鉴别虚假音视频的技术解决方案,吕教授团队对机器学习生成的虚假视频的算法代码进行分析,建立了数百个虚假视频模型,并尝试用各种方法进行检测。他们最终发现,虚假视频中的人物基本都不眨眼,而正常生理现象是,人类在面对面交流时眼神会进行互动,眨眼是一种不受主观控制的无意识行为,每隔两三秒钟一般会眨一次眼。
吕教授进一步解释说,机器学习学的并不是真正的“知识”,其得到的全部信息来自训练数据。而机器学习并不知道眨眼是人类的正常生理特征,第一代虚假视频大量使用的是网络静态人物,这些图片中的人物都是睁眼的,因为没有人愿意把闭眼的形象展示给公众。
同虚假视频人工智能大战任重道远
吕教授团队正是利用机器学习的这一弱点开发了一种深度学习新算法来检测虚假视频,成功率非常高。但吕教授坦言,在机器学习领域可谓道高一尺魔高一丈,虚假视频的制作者同样可以专门针对新算法设计出具有眨眼特征的更加逼真的视频。
吕教授说,虚假视频的制作过程是见不得光的,不会公之于众,其背后有巨大的政治或经济利益驱动,造假技术往往存在一定优势,领先于检测技术的发展。吕教授指出,其最新研发的算法目前来说具有一定的优势,这是因为考虑了虚假视频制作者尚未考虑到的数据训练问题。论文公开发表后,有黑客直接向吕教授发出挑战,要求其检测融合了眨眼的虚假视频,但这些虚假视频均未逃过新算法的“法眼”。
为在虚假视频检测技术研发上先人一步,吕教授团队目前已开始将深度学习算法的训练数据,从静态图片升级为动态视频,并通过建立红白队进行对抗训练,来提升高质量虚假视频的检测水平。吕教授透露,谷歌旗下Jigsa公司已同开发团队接洽进行合作。
除了不断提升技术手段,吕教授认为,同虚假视频的斗争最重要的还是需要公众具有独立思考的精神,不随意转发,不为虚假视频的广泛传播推波助澜,无论是主流媒体还是自媒体,都要恪守底线,坚持求真。