对《可能影响未成年人身心健康的网络信息分类办法(征求意见稿)》的思考

筑牢未成年人网络保护防护网

——对《可能影响未成年人身心健康的网络信息分类办法(征求意见稿)》的思考


  近日,国家互联网信息办公室发布《可能影响未成年人身心健康的网络信息分类办法(征求意见稿)》(以下简称《征求意见稿》),向社会公开征求意见,进一步明确可能影响未成年人身心健康的网络信息的具体种类、范围、判断标准和提示办法。意见反馈截止日期为2025年7月19日。


  主要亮点

  强化规范衔接,促进体系建构。对《未成年人网络保护条例》第二十三条第二款进行细化,《征求意见稿》将可能影响未成年人身心健康的网络信息定义为:除危害未成年人身心健康内容的违法信息外,通过互联网发布传播的其他可能引发或者诱导未成年人模仿的不安全行为、实施违反社会公德行为、产生极端情绪、养成不良嗜好等信息,具体包括五类信息:可能引发或诱导未成年人模仿或实施不良行为的信息;可能对未成年人价值观造成负面影响的信息;不当使用未成年人形象的信息;不当披露和使用未成年人个人信息以及诱导未成年人沉迷网络的信息。这初步构建了较完善的信息种类体系,有利于管理效能提升。同时,《征求意见稿》明确要求平台不得在首页首屏、弹窗、热搜、榜单、推荐、精选等处于产品或者服务醒目位置、易引起用户关注的重点环节呈现可能影响未成年人身心健康的网络信息。该规定补充细化《未成年人网络保护条例》第二十四条,有利于推动形成有效的治理体系。

  内容与时俱进,回应现实问题。共青团中央2024年11月发布的《第六次中国未成年人互联网使用情况调查报告》显示,我国未成年网民规模已经突破1.96亿,未成年人互联网普及率达97.3%。可见,移动互联网已成为少年儿童获取信息的重要渠道。《征求意见稿》在系统列举可能影响未成年人身心健康的网络信息类型时,将使用“网络黑话烂梗”、诱导未成年人参与“饭圈”行为、文身宣扬、规避防沉迷系统、代练代打服务等纳入监管范围,填补了监管空白,对新兴网络乱象作了有效回应。

  强调主体提示义务,规定具体提示方式。《征求意见稿》规定,网络产品和服务提供者应为用户提供添加显著提示效果的标识功能,并明确了具体的提示方式。针对文本、音频、图片、视频等不同形态的信息,规定明确的提示位置与形式(如文本首尾的文字提示、视频起始画面的标识等)。这清晰界定了平台在产品设计和服务提供中必须履行的提示义务,有利于规范平台运营,落实平台主体责任,完善网络治理体系。

  完善技术治理,防范风险挑战。《征求意见稿》第十条第二款规定,提供算法推荐、生成式人工智能等服务的,应当建立健全安全管理制度和技术措施,防范和抵制传播可能影响未成年人身心健康的网络信息。对算法推荐、生成式人工智能服务提出特殊管控要求,明确其需采取安全措施,及时过滤和阻断相关信息的传播,体现了对新技术风险的预见性,填补了此前法律法规对新技术监管的空白,有利于推动对网络空间的精细化治理。


  完善建议

  在细化可能影响未成年人身心健康的网络信息的具体种类、范围、判断标准和提示办法等方面,《征求意见稿》有诸多亮点,但还可以进一步完善。

  立足现有规定,提炼出概述性类型划分标准。《征求意见稿》在将可能影响未成年人身心健康的网络信息分类时,采用了列举方式,未提炼出概述性信息的判断标准。这在应对未来可能会出现的类似网络信息的规制力度方面会略显不足。为有效应对复杂的社会生活,有必要在列举各类可能影响未成年人身心健康的网络信息的基础上,提炼出概述性信息类型划分标准。判断网络信息是否属于可能引发或者诱导未成年人模仿或实施不良行为的信息时,可将是否示范、美化危害行为作为基本标准;可将是否挑战科学认知和社会主流价值体系作为重要参考。判断是否属于不当使用未成年人形象信息时,可将是否将未成年人工具化并损害其合法权益作为关键要素;判断是否构成不当披露和使用未成年人个人信息时,可看其是否在未经授权或超越必要范围下暴露可识别信息;判断是否属于诱导未成年人沉迷网络的信息,可以是否破坏防沉迷机制或通过其他手段增加成瘾风险作为参考依据。

  丰富解释方式,明确规范术语。《征求意见稿》中部分概念含义较模糊,如“极端情绪”“不文明用语”(“网络黑话烂梗”)“畸形审美”等术语缺乏明确定义,可能导致执行中的主观臆断或扩大化解释。同时,部分理念仍存在讨论空间,如将“唯分数论”“读书无用论”纳入可能对未成年人价值观造成负面影响的信息。这未考虑现实升学就业压力等社会因素,可能引发合理性争议。对此,建议针对争议概念发布负面清单及判例指南,如对“极端情绪”“高风险行为”等术语提供典型案例说明。建议积极通过听证会等公众参与机制收集社会反馈意见,避免判断标准的“一刀切”,如在界定“网络黑话烂梗”时,可参考青少年群体的实际使用习惯,区分善意调侃与恶意低俗。同时,建议限缩价值观条款范围,豁免合理表达空间。

  健全监督机制,强化平台监管。《征求意见稿》要求用户在制作、复制、发布、传播其他可能影响未成年人身心健康的网络信息时进行自主标记。这赋予了平台一定监管权,但其职能边界并不清晰,也未规定如何对平台进行有效监督。建议增加对平台行使监管权的监督,当平台对信息内容和显著标识的必要性审核出现遗漏和错误时,明确其应承担的责任,落实平台责任。同时,引入第三方监督机制,由教育、心理专家参与内容评估,确保平台审核的准确性。通过健全监督机制,实现对平台的有效监管,避免平台自我审核的随意性,提高平台的审核效率和质量。

  (作者单位:山西大学法学院)