人工智能深度伪造技术的两面性
有关AI的探讨通常带有一点争论。作为AI深度学习领域的一个分支,深度伪造技术在近几年迅速兴起。这一技术生动诠释了“眼见不一定为实”。起初,这一技术更多地用于娱乐,整蛊朋友或调侃明星,后来深度伪造逐渐“走向政坛”,为国家间的政治抹黑、军事欺骗、经济犯罪甚至恐怖主义行动等提供了新工具。
简介
今年3月初,一条乌克兰总统沃洛蒂米尔·泽伦斯基的“视频”被广泛传播。在该视频中,泽连斯基呼吁乌克兰士兵放下武器,放弃对俄战斗。这段视频在网上迅速流传开来,但很快就被揭穿为一段用深度伪造做的换头“视频”。这个视频作为战争状态下第一个针对一国元首的深度伪造视频,预示着一种新的舆论战形式。
事物的两面性
深度伪造技术有用吗?当然。比如,帕金森病患者可以使用语音克隆进行交流。再譬如,为了保护患者隐私,把医疗视频数据里的人脸深度伪造成别人,这样患者就不会被不相干的人发现自己患病的事实,触及隐私的医疗数据集也可以公开化,给医疗AI的研究者们提供方便。
殊不知,世界上每个硬币都有其两面性。深度伪造也有其“邪恶”的一面。
深度伪造技术的进步使语音钓鱼尝试看起来比以往任何时候都更加可信。在深度伪造音频技术的帮助下,威胁行为者可以冒充其目标,并绕过语音身份验证机制等安全措施,来授权欺诈交易或欺骗受害者的联系人以收集有价值的情报。
更严重的,在国家安全层面,假如故意使用深度伪造来重塑公众舆论、煽动社会冲突和操纵选举,这样的技术就有可能破坏整个社会的民主。
上图中展示了华盛顿大学的研究人员制作的一份有关贝拉克·侯赛因·奥巴马的深度研究报告。报告中,研究人员借助AI技术,通过第三者并模仿美国前总统奥巴马的一段演讲视频中的面部动作,成功伪造出一段冒牌奥巴马演讲的视频。
制造混乱
深度伪造基于生成对抗网络实现。生成对抗网络是非监督式学习的一种方法,通过让两个神经网络相互博弈的方式进行学习。
生成对抗网络由一个生成网络与一个判别网络组成。生成网络从潜在空间(latent space)中随机取样作为输入,其输出结果需要尽量模仿训练集中的真实样本。判别网络的输入则为真实样本或生成网络的输出,其目的是将生成网络的输出从真实样本中尽可能分辨出来。而生成网络则要尽可能地欺骗判别网络。两个网络相互对抗、不断调整参数,最终目的是使判别网络无法判断生成网络的输出结果是否真实。
虽然深度伪造背后的技术听起来可能很复杂,但利用这种“换头术”生成假货却很简单。目前市场上已经存在不少这样的在线应用程序,譬如Faceswap和ZAO Deepswap,可以在几分钟内生成深度伪造效果。
Google Colaboratory是一个在线存储多种编程语言源码的代码仓库,其中开放的代码中就包括可用于生成虚假图像和虚假视频的源码示例。
借助于这种全世界可访问的软件,人们很容易看到这样的事实:大量的普通用户在没有意识到潜在安全风险的情况下,借助深度伪造给社会带来不同程度甚至是严重的破坏。
换脸应用程序和 Deep Nostalgia 等公司的在线服务的广泛流行表明,深度伪造能以多么快的速度被公众广泛接受。仅仅2019年一年时间,他们就检测到约有15000个使用深度伪造技术伪造的视频。显然,这个数字预计还会迅猛增加。
深度伪造是造假活动的完美工具,因为它们能够产生可信的假新闻,而这种假新闻需要一定的时间才能揭穿。与此同时,假货——尤其是那些影响人们声誉的假货——造成的损害通常是持久性的和不可逆转的。
眼见为实吗?
深度伪造最危险的后果可能是利用它们在政治竞选中提供虚假信息。
这方面的一个有力的例证是,唐纳德·特朗普曾经将任何不讨人喜欢的媒体报道称为“假新闻”。通过指责批评者传播假新闻,特朗普得以利用错误信息为自己的错误行为辩护,并将其作为宣传工具。
特朗普的战略允许他在充满不信任和虚假信息的环境中保持支持,声称“真实事件和故事都是假新闻或假货”。
于是,政府和媒体的信誉正在受到损害,并造成了不被信任的恶劣影响。随着假冒伪劣产品的日益增多,政客们很容易否认对任何新出现的丑闻负有责任。假如一个人否认视频中的身份,怎么能确认他的身份呢?
另一方面,在民主国家努力维护言论自由的过程中,打击虚假信息一直是一项挑战。通过把人类与机器人结合起来等技术就可以通过让人们验证信息来帮助应对不断增加的假货风险。另外,还可以考虑引入新的立法或使用现有法律等手段来惩罚伪造信息和冒充他人的假货生产商。
另外,国际性组织和国家政府、私营公司以及其他组织的多学科交叉方法对于保护民主社会免受虚假信息的侵害都至关重要。AI对国家安全的影响已成为世界各国重点关注和研究的议程。
图片使用申明:原创文章图片源自‘Canva可画’平台免费版权图片素材;引用文章源自引用平台文章中所使用的原图。