据美国《国家利益》报道,10月19日报道,美国学者莫塔利刊发文指出,AI生成的深伪视频,正成为未来战争风险的最大推手之一。
文章警告称,这种技术一旦被用于制造虚假战争借口,将可能直接引爆地区冲突乃至全球性战争。
文章分析了AI视频如何消除真实与虚构的边界,如何激化族群对立,以及如何成为现代版的北部湾事件,从而为战争铺路。
文章还援引历史上的假旗行动和伪造情报事件,指出即使后续被揭穿,情绪的破坏力早已造成不可逆的后果。
文章的核心观点是:未来战争可能不再源于地缘利益争夺,而是由一段看起来非常真实的伪造视频触发,而这种灾难性的引爆机制,已经随着AI的迅速发展具备了必要条件。
(美媒报道截图)
文章提到的这个问题,最棘手的地方在于,它几乎无法通过传统手段有效遏制。
AI深伪视频的传播机制,遵循的是放大——爆发——失控的快节奏模型。
在当前的信息传播环境中,一段高情绪值、高视觉冲击力的视频,只需几分钟便可冲上平台热榜,甚至迅速突破语言与国界限制,进入全球视野。
而真正意义上的内容审核、事实核查与平台干预,肯定是滞后的。
而滞后的辟谣,难以完全消除负面影响,正所谓造谣一张嘴,辟谣跑断腿,这种伪造的视频会以超越查证的速度完成情绪塑造,即便最后被揭穿为假,公众的愤怒、恐惧与立场早已固化,舆论已然成形,甚至政治响应已经开始。
在AI驱动的语义调优和情境建构能力支持下,画面能够轻易逃脱审核机制。而对于大多数用户来说,判断真假都是非常主观的,只要我觉得它是真的,让我哭了,笑了,爽到了就行了,远比内容本身是真是假更重要。
而且,很多,甚至可以说绝大部分用户,在短视频时代,正逐渐丧失辨别信息真伪的能力。
那么一旦公共舆论被这些虚假的影像激活,国家层面就可能陷入不得不回应的压力之中,到了那个时候,真相是什么,已经不是优先的问题,因为人们的情绪已经被刺激了起来,这种集体的情绪,是需要一个出口的。
就像一个小孩子喊狼来了,大家跑过去一看,是假的,但是来都来了,打不了狼,我们就把这个孩子揍一顿吧。
(伪造内容越来越容易)
过去,战争的风险多来自地缘战略与资源争夺,但如今,公共情绪本身已被塑造为易燃易爆炸的精神火药。
AI和算法推荐系统让高情绪值内容获得天然优势,注意,不是高情绪价值,而是越能刺激情绪的内容,越容易被传播,而社交媒体构建的回音室效应,强化了观点极化,削弱了理性认知能力。
在这样一个环境中,愤怒、仇恨、羞辱感与受害者心理,往往比事实更有传播力。
当人们越来越将立场视作自己的身份,信息消费就不再是以获取知识为主,而是在确认自我的身份,进而分出“你们”和“我们”,这就出现了对立。
AI本身属于一种加速器,它将原本就高度情绪化的表达形式,进一步包装为“影像证据”。
以前我们常说无图无真相,现在不仅有图,甚至还有影像予以“佐证”,人们就会认为自己看到了现实。
在这样一种结构性循环中,深伪技术的爆炸性将被不断放大,情绪推动传播,传播反过来又激化情绪,形成了一个不断膨胀的恶性闭环。
(“假新闻”)
所以说,我们现在可能正处在一个信息战争时代的原子弹前夜时刻。
20世纪的核武器改变了军事力量的定义,让国家在使用武力前必须慎之又慎。
而现在,AI深伪内容的扩散路径、操控方式与引爆逻辑,在重塑战争的同时,更重塑着战争的前提。
它不像核武器那样集中在国家手中,而是人人可得,也不需要发射按钮,只需要一段在情绪高压点精准投放的短视频。
这意味着,战争不再需要传统挑衅行为或假旗行动,只需要一个看起来像真的幻象,就能完成战争正当性的构建,自然也就极大地削弱了国家对战争发动权的控制力,让误判成为高概率事件。
(避免被算法喂养)
所以,在未来,战争或许不再是由外交失败引发,而是由自动化信息链条,在不知不觉之间,被一群人集体启动。
毕竟深伪图像和视频不再需要团队制作,仅需一些提示词,就可以低成本的生成内容。
在一定程上,我们每个人其实都已被卷入这个系统之中,都有可能是构成战争结构的一部分。
当然,这篇文章说的,是一种极端的情况,而非当前普遍现象,并不代表大众用了AI就能引爆世界大战。
不过作为信息消费者,确实应该变得更主动,也就是主动获取自己需要的信息,而不是被算法投喂,被动地刷刷刷,机械式地点赞转发。