点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

作者:木亦
当前,未成年人网络普及率不断提升,“触网”年龄越来越低。今年暑假,中央网信办开展 “清朗·2025 年暑期未成年人网络环境整治”,明确提出将涉未成年人不良信息等列为重点打击对象。日前,国家广电总局也下发了在全国范围内开展不良动画微短剧和动画短视频网络传播专项治理。
2024年发布的《第6次中国未成年人互联网使用情况调查报告》显示,2023年我国未成年网民规模上升至1.96亿人,未成年人互联网普及率97.3%。在庞大的“小网民”群体中,观看微短剧、动画短视频是最高频的网络使用行为之一,网络内容深刻影响着未成年人的价值观塑造、行为养成和身心健康。
随着新技术的不断发展,新的内容形态不断产生,对未成年人的保护必然面临新的风险和挑战。部分网络账号违规制作、传播包含淫秽色情、血腥暴力、封建迷信、邪教思想等不良内容的动画作品,损害未成年人的身心健康。及时对此展开专项治理,清理危害未成年人身心健康的不良内容,建设清朗的网络空间,是必要之举。
人工智能技术在降低内容生产门槛、释放创作活力的同时,也给内容监管带来了前所未有的挑战。AIGC技术能够在短时间内批量生成动画内容,其生成的随机性和多样性使得违规内容的识别与拦截难度大幅提升。包含血腥暴力、恶搞低俗内容的“邪典动画”也借助AI技术卷土重来。部分经AI魔改后的内容还被制作成商品,在电商平台销量不俗。
网络上不断出现的新形态的违规内容进一步提醒我们,强化对AIGC生成内容的监管,是应对技术快速迭代、回应社会关注的紧迫要求,必须系统性提升审核监管能力,推动网络内容审核监管能力与新形态、新技术的同步升级。
网络平台作为内容传播的关键环节,必须肩负起主体责任,以“零容忍”态度筑牢未成年人保护的第一道防线。平台不仅是内容的传播载体,更是内容生态的建设者,其审核力度与治理成效直接关系到专项行动的落地效果。
在这方面,一些平台已经开始行动。以抖音为例,今年以来,平台已针对涉未成年人色情低俗、诱导未成年人直播打赏、利用未成年人形象不当牟利等问题,多次发布治理公告。今年暑期,抖音累计清理违规视频43万余条、处置违规直播间近5000个、2427名主播被扣除健康分、1.6万余个账号被阶梯处罚。近期,针对涉未成年人的违规场景,平台双周共清理相关违规内容10.7万条,对4165个账号处以清理违规增长粉丝、限制商业变现功能、禁言、封禁等不同梯度的处罚。其中就包括通过AI生成低俗擦边动画、对经典动画片进行低俗二创,诱导未成年人低俗互动的情况,直接封禁了405个账号。
这些数据背后,是平台在内容审核技术与人力配置上的持续投入。平台的规模越大,用户基数越多,社会责任就越重,这种结合新风险点及时更新治理措施的做法,彰显了头部平台的担当。而面对治理新问题,平台还须不断强化技术手段,根据新的变体不断提升审核能力,不断增强对涉未成年人新风险的挖掘、研究和解决能力。
同时,也必须清醒地认识到,未成年人网络保护是一项系统工程,仅靠监管部门点对点打击和平台的自我约束远远不够,还需要家庭、学校、行业、社会等各方力量协同发力,构建全方位、多层次的保护网。要以专项治理行动为契机,在集中清理违规内容的同时,对网络内容生态进行系统优化,不断完善监管体系、强化平台责任,深度推进社会协同,提高新形态违规内容审核监管能力,让未成年人在优质网络内容的滋养下,健康、快乐地成长。(木亦)
