点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
作者:赵志疆
1月7日9时5分,西藏定日县发生6.8级地震,灾情牵动人心,但与此同时,一些疑似虚假信息,比如AI制造的图片,正在造成广泛误导。据媒体报道,一个戴帽子的小孩被重压在倒塌的建筑物下的图片,在某短视频平台上,有10个以上的账号发布,并和西藏日喀则地震关联,有些甚至获得好几万的转评赞。
经查证,该图片为AI工具创作,原作品发布于数月前,原始作者在短视频中声明了“为AI生成”。但在西藏地震之后,这一图片被不加标注地大肆传播,引起了普遍误解和误读。
灾难发生后,除救灾外,及时发布准确信息并辟谣也是重要一环,虚假信息的泛滥,可能会直接影响救灾资源分配。此事件提醒人们,AI技术及其产品泛滥,已经入侵灾后信息领域,即使原作者已经标明AI生成,转发者并无恶意,但其产生的影响客观存在。对此,应当严格规范AI作品标识,同时重视AI生成信息在灾后等场景下可能导致的问题,防范和惩戒利用AI技术编造谣言等行为。
伴随着互联网科技的飞速发展,虚拟的AI技术变得越来越“现实”:只要提供素材和简单描述,AI技术就能实现“文生图”或“图配文”。前者只需提供文字,就能自动生成相对应的图片;后者则会根据图片内容,自动匹配相应的文字。有了AI技术的加持,网络谣言的隐蔽性更强,破坏性更大。AI不仅能在短期内批量生成大量网络谣言,而且能结合深度伪造技术生成图片、视频、录音,使人很难辨别真伪。
《互联网信息服务深度合成管理规定》指出,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。《生成式人工智能服务管理暂行办法》明确规定,提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德。
去年12月11日,公安部公布依法打击“网络水军”违法犯罪10起典型案例,其中多起涉及“利用人工智能工具编造谣言信息并批量发布”。在严厉打击AI谣言的同时,网络平台也有必要承担起主体责任,积极构建防控网络谣言的技术屏障。
在此事件中,有媒体记者进行了测试,在某AI智能生成软件中输入“日喀则地震婴儿被埋”的关键词,软件在未给予任何侵权、违规、虚假信息等干预提示下,自动生成了多张相关图片。与此同时,在平台上,相关视频也可顺利发出,约一小时后,平台才对视频内容进行备注“疑似使用AI生成技术”。这种粗放式管理,使AI智能生成软件几乎对网络谣言“不设防”,而后知后觉的内容平台监管,也很容易使AI谣言迅速失控。
要扭转这样的局面,有必要尽快明确针对AI应用的行业规范,为维护公共利益构筑起强大的防火墙。对于AI生成软件来说,应对内容和关键词进行审核,把好生成式内容的第一关,避免哗众取宠的虚假内容混淆视听。对于内容平台来说,不仅应对AI生成内容进行显著标识,而且应健全内部管理机制,及时清除涉嫌违法违规的不良账号。只有强化各方的主体责任,才能有效打击各类AI谣言,防止技术跑偏和滥用。(赵志疆)