马斯克也曾被骗,AI虚假内容太“真实”了
随着巴以冲突的发展,社交媒体平台上出现了大量反映当地现场画面的视频,但这些内容真实性到底几何,恐怕不容乐观。
在推特上, 自巴以冲突以来便产生了相关大量虚假内容,比如有看起来效果逼真的游戏视频被篡改成哈马斯发动袭击的录像、阿尔及利亚人放烟花庆祝的照片被充作以色列打击哈马斯的图片、足球巨星C罗挥舞巴勒斯坦国旗的假照片,甚至一段3年前叙利亚内战的视频也被重新编辑,冒充成最近拍摄的新视频。
而这些内容的虚假程度,甚至都蒙骗了推特的CEO埃隆·马斯克。他发推写道:“如果想实时关注巴以冲突,推荐关注@WarMonitors和@sentdefender。”然而真相却是,这两个账户竟都是臭名昭著的虚假信息传播者。
为何虚假信息能够在网络大行其道,甚至收获不少流量,除了蹭热点带来的流量加持,数字平台在传播速度与规模上的优势也给虚假信息的病毒式扩散提供了“温床”。此外,在如今各种算法的加持下,不同信仰、认知的群体所带来的信息茧房效应被进一步加剧,以至于“造谣一张嘴,辟谣跑断腿”的局面逐渐成为常态,辟谣的传播力度远不及谣言来得快、传得广。
随着今年以ChatGPT为代表的内容生成式AI模型集中爆发,虚假内容已经突破了传统的张冠李戴、捕风捉影,无中生有式内容开始大量出现,真实信息在网络空间的传递声浪正变得狭窄。
本文将结合信息茧房效应,探究以深度伪造为代表的AI技术加持下,虚假内容如何影响受众,以及背后有哪些更加深层次的运维操作。
被信息茧房割裂的受众
所谓信息茧房,是指受众更倾向于关注自己原本就感兴趣的领域,更乐于与志同道合的人开展交流,久而久之就如同蚕蛹一般被“茧房”束缚,不愿面对外部的世界和生活,甚至在接触到不同声音时产生强烈反弹。
换言之,如果受众长期受片面或者虚假信息的浸泡,久而久之便会与“唱反调”的真相产生抵触,心甘情愿落入其所营造的“茧房”中,并成为此类信息的分享者与传播者。
在国内,众多互联网平台会根据用户喜好推送特定内容,其形式已从用户首次使用时手动勾选感兴趣的领域,逐步演化为通过用户行为构建大数据,进而勾勒出更精准的用户画像,使得推送内容更加符合不同受众群体的胃口。从商业角度出发,这无疑能够增加受众及粘性,但由此带来的信息茧房效应已让不同群体在认知上愈发割裂,进而造成舆论的分化、冲突。
不久前,国内知名短视频平台被曝出同一视频的评论区内容会因不同用户而大相径庭。在一则在男女吵架的视频中,男生看到的是支持男方,而女生看到的则是支持女方。如此一来,不同群体很难根据视频及评论内容获得更加客观、全面且理性的判断,反倒是单一群体及认知偏见被放大。一些网友为此感到担忧,未来的视频可能会以此呈现出更符合不同用户心理的内容,从而进一步加剧信息茧房效应。
国内某短视频平台上男(左)女(右)用户群体呈现出截然不同的评论
在促进社会秩序发展的事件中,信息茧房效应的危害得到进一步暴露,比如最近闹得沸沸扬扬的成都恶犬伤人事件,养犬人士、动物保护人士与厌犬人士的矛盾再度被点燃,而信息茧房效应无疑只会加剧这些群体的对立,对如何规范养犬、保证各方权益,起不到任何建设性作用,反而容易促成一些地方决策层对养犬要么散漫不管,要么直接一刀切的极端局面。
可以预见,在AI时代,各类大模型无疑会更加精准地细分受众,处在茧房中的群体将越发割裂,更加难以接受其他各类信息及观点。自然,一旦茧房中的信息成分虚假,也更加难以通过其他信息进行佐证,导致虚假信息泛滥。
割裂的后续:AI深度伪造成为虚假内容生产池
深度伪造能够利用AI的深度学习特性来捏造看似现实的虚假图像。随着今年Midjourney等AI绘图工具大火,以特朗普被逮捕为代表的AI生成式图片在社交媒体广泛传播,若不是背景人物出现如有六根手指头等翻车情况,其逼真程度已非过去任何一款自动化图像生成工具所能比拟。
由Midjourney生成的特朗普被捕画面
而一位推特用户则分享了用Midjourney虚构的历史事件画面:2001年4月,美国西雅图发生了毁灭性的里氏9.1级地震,城市被彻底摧毁,救援人员在废墟中拯救幸存者。
试想一下,除了赞叹逼真伪造技术的吃瓜群众,会有人仅因为这些画面信以为真吗?由于信息茧房导致不同群体拒绝或者接收不到其他外部信息,对虚假信息的辨别力也随之大打折扣,此类基于生成式AI的深度伪造技术无疑正成为大量虚假信息的制造机。
由AI虚构的2001年美国西雅图大地震
在仍然持续的俄乌冲突中,深度伪造技术就已开始“大显其手”。2022年3月,泽连斯基和普京分别宣布投降的两段虚假视频在推特等社交平台上疯传,虽然视频本身的伪造技术还显得有些拙劣,但对这场冲突持对立立场的受众而言,无疑都是喜闻乐见的结果,从而在一定程度上促成了这些虚假视频的传播。
2023年5月,一张由AI生成的美国五角大楼爆炸的图片又在全球社交平台上病毒式传播,甚至导致美国股市应声下跌。虽然这张照片同样存在一些肉眼可见的破绽,但对于全世界许多不满美国的人而言,任何关于美国负面的信息往往会在第一时间对其深信不疑。
AI虚构的五角大楼附近发生爆炸画面
AI的信息操纵
由于生成式AI能制造虚假信息,误导受众认知,并在信息茧房效应下加剧不同群体间的割裂与对立,进而显示出AI具有能够操纵信息的能力,在国际形势越发复杂、地缘政治问题频出的当下,利用AI生成的虚假信息已经成为现代认知战的重要利器,不仅关乎世界和平稳定,对国家政治安全也构成挑战。
被AI操控的选举
过去,以美国为首的西方国家在举行总统选举等重大政治活动时都会曝出大量作弊甚至是涉嫌操纵选举的消息。到了现在,AI技术也恐将在这一系列“见不得光“的操作中发挥重要作用。
2024年,美国将举行新一轮总统选举,多家媒体预测,这将成为美国第一场广泛使用AI工具的选举,民主党与共和党都会将AI技术用于宣传、筹款等活动。比如《纽约时报》6月25日报道,一些政治竞选活动开始使用AI,这种现象几个月前还只是缓慢渗透,而现在已经汇聚成巨大洪流,开始改写全球民主选举的游戏规则。技术专家警告称,由于美国陷入政治极化,加上美国前总统特朗普输掉2020年大选后抨击选举被“操纵”,许多选民对政坛和主流媒体的信任度大打折扣。有人可能利用这一点,用AI技术制造混乱。
正如同前文所述,利用AI绘图工具已经能够生成逼真的特朗普被捕画面,如此一来,生成性AI工具能迅速产出竞选电邮、视频等宣传材料,冒充候选人、误导选民。美联社为此设想了一些在竞选期间炮制的“AI陷阱”:用总统候选人的声音制作假音频,指示选民在错误的日期投票;冒充候选人承认“犯罪”,或发布种族主义言论;散布和新闻报道截图相似的图片。
冲突和战争的催化剂
在国际关系中,战略互信是国际安全与国际形势稳定的核心支柱,可以为全球合作和多边合作体制建设奠定坚实的基础。但基于AI的深度伪造与其他颠覆性数字技术相结合,将极大地降低全球和区域多边机构以及国际关系行为体彼此间的信任。
2019年,印度和巴基斯坦之间的紧张局势升级期间,路透社发现了30起关于该事件的深度伪造视频。视频大部分是2017年印巴冲突期间,发生在印巴两国一些城市的民众向对方抗议示威的场景。但却被AI技术对这些视频作了处理,并有意错误描述为正在印度和巴基斯坦发生的视频片段。这些视频极大地刺激了印巴两国的民族主义者,导致事态升级。由于担心事态失控,印度和巴基斯坦官方被迫暂时关闭了一些社交平台。
对国家政治安全的危害
当前,中国的迅速崛起正给西方霸权主义带来挑战,以美国为首的一些国家除了在技术上遏制中国,在舆论上也对中国进行抹黑,并试图分裂中国,给中国国家政治安全带来风险,其中AI技术正起到推波助澜的作用。
2021年4月29日,中国驻比利时王国大使馆专门发布了揭露以美国为首的西方国家制作包括深度伪造在内的关于涉疆问题的虚假信息的文章,揭露在美国反华势力的操纵下,一些歪曲事实的“学术机构”、造谣的“专家学者”和不顾道德的“业余演员”,是如何制造谎言、包括利用现代人工智能技术制造更加逼真的谎言,以通过诽谤中国的治疆政策误导国际公共话语。
如英国广播公司BBC关于所谓“强迫劳动”的专题报道,视频中将央视在安徽省报道对口帮扶的新疆和田地区皮山县招聘工人的镜头,通过剪辑、扭曲,摇身一变为“强迫”新疆的维族青年到内地工作。还有一些深度伪造视频污蔑中国政府通过计划生育政策在新疆实施所谓的“种族灭绝”政策等。这些深度伪造内容给中国政府的新疆政策抹黑,将涉疆问题建构成为所谓的“人权”问题和中国政府的“种族灭绝政策”,不仅误导了外部世界的民众,让中国外交面临更为恶劣的国际环境,也影响了新疆的和平安定和民族团结局面以及未来的发展。
虽说虚假信息问题已非一日之谈,但AI技术无疑让虚假信息更加难以辨别,同时也更能揣测受众心理,并能按照特定意志颠倒黑白、煽风点火,裹挟进纷繁复杂的国家竞争与冲突当中。如果说信息茧房的雏形是因认知偏差和群体分化所致,那么AI技术则在不同茧房之间再加上了一层具有硝烟味的迷雾,让对立加剧,让真相消失。网络时代,由AI技术带来的虚假信息需引起我们充分警惕。
图片使用申明:原创文章图片源自‘Canva可画’平台免费版权图片素材;引用文章源自引用平台文章中所使用的原图。