点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
作者:伍里川
近日,“贵州文昌阁多只小猫被挖眼砍断四肢”等话题登上微博热搜,相关内容为:有网友发布视频称,在贵州贵阳文昌阁附近发生多起虐待或虐杀小猫事件,其中包括一只常被游客打卡拍照的网红猫。该话题发布后,迅速引起全国网友广泛关注。然而警方调查没有发现虐猫情况。后确认,此事系AI编造谣言,造谣者已被行政处罚。
然而,“挖眼虐猫”只是众多AI摆拍传谣事件之一。近来,多起类似事件引发公众警觉。9月12日,公安部网安局公布了刘某娇利用AI工具编造虚假险情案等3起网络谣言典型案例。揆诸相关案例,要么打着关切公共利益的旗号造假,要么利用人们的好奇心制造谣言,其中不少案例都借助了AI技术的加持。
随着AI技术普及,网络谣言中AI谣言的比重也在不断上升,在“有图有真相”甚至有虚拟合成的视频的加持下,更增加了普通人辨别真假的难度。事实上,不少网友对AI摆拍传谣者带来的虚假信息深信不疑,很大程度上是因为AI技术重组了信息碎片,以逼真的“现场感”增加了“可信度”;加之一些网友沉浸在碎片化传播、激情式传播的“爽感”中不求深究,自然很容易成为此类信息的受害者、助推者。
值得注意的是,一些人用AI技术制作某些场景,并无传播意图,但却被“好事者”搬运、肆意传播。这种情形表现出,AI时代信息交流和保护的语境中存在的复杂性和多变性。
不论如何,一旦非真实信息成了“爆炸新闻”,在始作俑者的加倍“发挥”下,恶意传播谣言造成的危害性就可能大大增加。一些以“第一手资料”为卖点的摆拍传谣事件极力追求刺激性和蛊惑性,很容易引起社会恐慌,“燃气管道泄漏引发爆炸”“某地爆发传染性疾病”便是常见案例。一些虚假宣传刻意强调真实性,稀释了权威信息发布的效果,对社会信任体系形成冲击和破坏。此外,此类虚假信息往往喜好侵犯个人隐私和商业利益,给个体带来无妄之灾,给企业造成巨大损失。而由于“几秒生成”的AI降低了造假、传谣的成本,也令一些不怀好意者增加了造假、传谣频次,加大了危害程度。
对此类现象,必须坚定、持续地打击和遏制,还互联网一片安宁。唯有加大对于AI内容的监管,从根源上切断AI摆拍传谣的路径,方能抵御AI摆拍传谣现象的“围猎”,净化上网环境。今年9月1日起,《人工智能生成合成内容标识办法》正式生效,要求用AI生成的每一段文字、每一张图片、每一条音频、视频,都必须强制亮明“数字身份证”。该办法的核心是构建了“显式+隐式”双重标识体系,对不同类型的AI生成内容提出明确标注要求,确保用户与监管方能够清晰识别内容的AI属性。这无疑是对当前AI内容进行强化管理的关键一步。这一双重标识体系有利于提高各方对AI内容的识别度,令试图以假乱真的AI内容置于公共视野中接受有效监督。
但也要注意到,一方面,需要谨防“道高一尺魔高一丈”的趋向。现实中的案例说明,一些恶意用户可以利用工具规避和删除AI标识,戴上“真实信息”的帽子忽悠不明真相者,对此,需要加大技术攻关力度和监管力度,及早应对恶意用户“动手脚”;另一方面,AI谣言其实也是网络谣言的一种形式,本质上,要扼制其传播,除了在内容识别上加强管理,还需要平台落实好主体责任,全面履行审核责任。平台建立起事前预防、事中阻断、事后严惩的全链条治理体系,阻止“换只马甲复出”现象的滋生,已成为重中之重。监管部门则应对此类现象,建立制度化、常态化监管体系,并加大惩治力度。
总之,应对AI摆拍传谣现象的高发,需要多方形成合力、实现共建共治。而作为受众,面对纷繁复杂的网络信息,擦亮双眼、提升认知水平、避免被误导和被利用,也是应有之义。(伍里川)