点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

光明网评论员:近日,一位知名配音演员在社交平台称,自己仅为某品牌节目录制了前半部分旁白,但却在后半部分也听到了自己的声音。她认为自己的声音在未经本人授权的情况下,被非法用于AI模型训练。制作方旋即发布致歉声明,将此事归结为“工作疏忽”。
近年来,“声音被偷”的案例早已屡见不鲜。从技术层面看,如今的AI仅凭一张人脸照片,就能生成动态影像,克隆声音自然更不在话下。事实上,不少平台都有商家公然提供声音克隆服务,“7.8元包1500字”的广告随处可见。
几块钱就能“复制”一个人的声音,如果放任不管,以配音为职业的人何以谋生?这样的服务合法吗?答案很明确:未经本人授权就不合法。《中华人民共和国民法典》明确将声音纳入保护范围。未经许可通过AI训练生成“仿制声音”,就是侵权。司法实践中,法院已多次支持配音演员维权。去年,北京互联网法院就对全国首例“AI声音侵权案”作出一审判决,侵权公司被判赔偿配音师25万元。
这一判决再次敲响警钟:声音权与肖像权一样,都是每个人不容侵犯的合法权益。在日常生活中,肖像权因直观可见而更易被理解和重视——比如明星头像被盗用,大家一眼就能看出不妥。但声音无形,一些人便误以为其中有“操作空间”,这也成了部分商家堂而皇之提供克隆服务的心理诱因。
纵容AI克隆声音,不仅伤害配音从业者,更会引发严重的社会问题。如今不少短视频平台上流传着各类仿冒视频,克隆明星、学者等公众人物的声音,散播真假难辨的内容。有的诱导消费、投资,有的涉及极端观点,不仅误导分辨力弱的用户,还可能让被模仿的公众人物无辜“背锅”。
比如,今年8月,运动员全红婵就被卷入“AI仿冒带货”风波,有博主利用AI仿冒全红婵的声音带货土鸡蛋,直到卖出几万件商品后,才被全红婵家人发现并辟谣。还有博主复刻演员靳东的磁性嗓音,进行24小时语音直播,专门诱导中老年粉丝打赏。
窃“声”亦是偷,莫以疏忽视。“李鬼”横行的内容生态,显然不是清朗的互联网空间该有的。要遏制非法的AI声音克隆,不能只靠配音演员孤军奋战。我们首先应从认知上明确:声音,同样是法律赋予每个人的宝贵权利。“偷取”声音,与盗用肖像、偷窃财物一样,都是不折不扣的违法行为。唯有形成这样的共识,我们才能构筑系统防线,凝聚多方力量,守住每个人独一无二的“声音名片”。
在实践层面,需认识到这些乱象源于AI技术被滥用,应通过完善法规、加强监管、落实平台责任、提升用户意识共同治理。今年9月,《人工智能生成合成内容标识办法》正式实施,要求生成音频必须添加标识,以实现可识别、可追溯;2025年4月起,中央网信办在全国启动“清朗·整治AI技术滥用”专项行动,强化AI技术源头治理,清理违规应用。平台应加强技术审核,建立“AI滥用黑名单”,对多次违规的主体采取联合惩戒措施。用户也需提高辨识能力,对AI生成内容保持警惕。
(转载请注明来源“光明网”,作者“光明网评论员”)
【上一篇】灵隐寺免门票,该怎么“抄作业”
