数字平台成瘾性算法的现实检视及协同治理

  据今年3月发布的《中国网络视听发展研究报告(2025)》,截至2024年底,我国短视频用户规模达10.4亿人,人均单日使用时长高达156分钟,人均每天刷短视频达2.6小时。有媒体使用“短视频成瘾”来形容这一现象。事实上,导致网民“成瘾”的并非短视频本身,而是数字平台中推荐短视频的成瘾性算法。成瘾性算法作为注意力经济时代的产物,在帮助视频、资讯等数字平台强化市场优势地位、获取收益的同时,也触发了心理健康危机、社会公平失衡等问题。2024年11月,中央网信办秘书局、工业和信息化部办公厅、公安部办公厅、市场监管总局办公厅联合印发的《关于开展“清朗·网络平台算法典型问题治理”专项行动的通知》(以下简称《通知》)第一条明确,要深入整治“信息茧房”、诱导沉迷等问题。

  《通知》印发后,各平台积极响应,签署“算法向善”南宁宣言,进一步深化互联网信息服务算法综合治理。其中,在破除“信息茧房”方面,有的平台推出“茧房评估”“一键破茧”等功能,帮助用户降低成瘾性算法的危害。然而,虽然重点平台信息推荐算法治理取得了一定成效,但仍存在相关功能使用效果不明显、推荐内容质量不够高等问题,与广大网民和社会各界的期待相比还有差距。在数字平台的成瘾性算法治理方面,我国现有治理框架如何有效应对,值得深入探讨。


  数字平台成瘾性算法的运行机制与危害

  根据脑科学的研究成果,瘾性的形成与大脑边缘奖赏/快感系统释放的多巴胺密切相关,它能给个体带来强烈的愉悦感。一般而言,生活中只有毒品等少数物品通过偶然接触可以快速刺激个体多巴胺分泌从而使个体成瘾,其他物品则往往需要借助外部行为辅助,如通过诱导等方式不断增加个体对其接触量或次数,从而刺激大脑分泌多巴胺,由此逐渐产生重复使用瘾性。数字平台对成瘾性算法的开发正是利用这一原理,使用户参与特定行为以获得奖励或必需品,进而诱导用户重复其行为,强化激励形成习惯循环,最终产生心理或生理性依赖。以社交平台成瘾为例,用户大脑释放多巴胺产生社交需求,数字平台的个性化推荐算法通过对用户数据的收集与分析,获得用户个体画像,对用户进行标签化分类,进而瞄准用户的社交特征与喜好,对其推送可能感兴趣的内容。用户在与推送内容的互动中得到情感上的支持和愉悦感,最终形成对社交平台的依赖,产生类似于赌博的上瘾性。

  共青团中央维护青少年权益部、中国互联网络信息中心及中国青少年新媒体协会于2023年12月23日联合发布的《第5次全国未成年人互联网使用情况调查报告》显示,我国未成年人短视频用户规模超1亿,77.5%的家长表示担心孩子看短视频上瘾可见,青少年群体受成瘾性算法影响大。具有成瘾性特征的算法被数字平台滥用后,使得用户特别是缺乏成熟理性判断的青少年群体,在生理、心理及社会层面深受“数字尼古丁”现象困扰,造成个体注意力被剥夺、心理健康受损。一方面,成瘾性算法引导用户沉浸于大量碎片化、短暂性的内容消费中,占用了他们在学习、工作和现实社交活动中的专注投入精力,弱化了深层次、理性化、创新性思维能力。2021年一项针对某平台的研究表明,刷视频成瘾会导致青少年记忆力减退,且损害注意力,对年轻人尤为显著。另一方面,成瘾性算法有损用户心理健康。数字平台想方设法让用户的多巴胺释放量最大化,这个过程本身会对大脑产生实质危害,比如导致大脑楔前叶、后扣带回皮质等区域显著失活。同时,这还会削弱行为人的自我控制能力,更容易出现抑郁、焦虑等问题。


  数字平台成瘾性算法治理的立法现状

  近年来,在数字平台成瘾性算法治理上,我国采取了积极的立法和监管措施。通过对现有立法的梳理可以发现,我国对成瘾性算法的法律规定主要分布于未成年人保护领域和算法推荐管理领域。在未成年人保护领域的法律规定中,《中华人民共和国未成年人保护法》第七十四条规定,“网络产品和服务提供者不得向未成年人提供诱导其沉迷的产品和服务。”《未成年人网络保护条例》第五章专门规定了网络沉迷防治的11项举措,其中,要求网络产品和服务者应当建立健全防沉迷制度,不得向未成年人提供诱导其沉迷的产品和服务,及时修改可能造成未成年人沉迷的内容、功能和规则,每年向社会公布防沉迷工作情况,接受社会监督。根据文义解释,“沉迷”是指过度沉溺于某种事物而难以自拔,若遵循这一理解,成瘾则是更严重的沉迷。因此,这些法律规定虽然没有明确使用“成瘾”的表述,但数字平台使用成瘾性算法提供的产品和服务,依然属于法律规定的禁止性行为。在算法推荐管理领域,同样存在对成瘾性算法的规定。比如,《互联网信息服务算法推荐管理规定》第八条规定,“算法推荐服务提供者应当定期审核、评估、验证算法机制机理、模型、数据和应用结果等,不得设置诱导用户沉迷、过度消费等违反法律法规或者违背伦理道德的算法模型”;第十八条第二款规定,“算法推荐服务提供者不得向未成年人推送可能引发未成年人模仿不安全行为和违反社会公德行为、诱导未成年人不良嗜好等可能影响未成年人身心健康的信息,不得利用算法推荐服务诱导未成年人沉迷网络。”


  数字平台成瘾性算法的协同治理

  总体而言,虽然我国已就成瘾性算法治理进行了积极立法,但制度设计仍存在碎片化、向度单一等问题。现行规范主要围绕监管部门对数字平台的主动执法及平台自我合规管理展开,尚缺乏用户、行业协会及其他第三方主体的制度性嵌入,难以有效应对算法风险的系统性、动态性与社会性。鉴于此,在数字平台成瘾性算法治理场域,应构建由监管部门、数字平台企业、用户、行业协会等多主体共同参与的协同治理架构,以实现治理资源的最优配置与治理效能的整体提升。

  监管部门应当协同行业协会、数字平台企业、专家学者等共同制定成瘾性标准。一方面,算法技术仍处在发展过程中,对成瘾性算法不宜作狭窄、僵化的界定,监管部门应协同行业协会、数字平台企业、技术/伦理专家、代表性用户等主体对主流平台成瘾性算法的运行逻辑、交互设计、行为诱导机制展开系统调研,以识别可能导致用户成瘾的关键变量,进而以此构建成瘾性算法的界定标准。另一方面,由于欧盟和美国等国家和地区对成瘾性算法已具有较为丰富的治理经验,可以借鉴欧盟的《非公平商业行为指令》《数字服务法案》,以及美国纽约州的《停止儿童成瘾信息推送法案》等域外规范文本中有关成瘾性算法的规定,结合我国实际,制定相应规范。

  强化成瘾性算法的平台自治。相对于政府监管的事后纠正特征,平台自治作为预防成瘾性算法侵害用户权益的前置性治理机制,应从算法设计优化、治理机构建设和未成年人保护三个维度进行系统完善。在算法设计层面,平台应建立常态化的算法风险评估机制,定期审查个性化推荐算法的成瘾效应并实施针对性缓解措施,对煽动性、极端化内容执行严格的过滤标准和限频推荐,通过算法去重设计减少同质化内容推送,促进多元化信息呈现。同时,持续评估推荐内容对用户特别是未成年人的行为影响,并动态调整算法参数。在治理机构方面,平台应设立算法伦理审查委员会等专门机构,对算法模型的数据输入、目标函数、数据结果等进行合规性与伦理性双重审查。在未成年人保护方面,数字平台应针对未成年人群体的认知发育特点,构建更严格的防沉迷管理体系,包括制定专门的未成年人防沉迷实施标准,运用生物识别等技术提升身份识别精准度,为未成年人提供差异化的服务模式。严格控制使用时长和付费行为,并与教育行政部门、学校及家庭建立数据共享与干预联动机制,形成多元化的未成年人网络保护生态。

  鼓励第三方主体参与数字平台成瘾性算法治理。除平台自治外,政府应构建多元化协同治理机制,引入行业专家、学术机构、社会组织等独立第三方机构参与成瘾性算法治理,为平台算法的合法性、伦理性及社会影响提供独立客观的专业评估。具体而言,第三方评估机构应建立常态化监督机制,定期检查平台未成年人防沉迷模式实施的有效性,结合未成年人网络及平台应用使用时长、频次、行为模式等多维数据,科学评估平台保护措施的实际效果,识别保护机制的薄弱环节,并基于实证分析结果向平台提出针对性的改进建议,从而形成政府监管、平台自治、第三方评估相结合的立体化治理格局,提升成瘾性算法治理的科学性和有效性。

  (作者单位:东南大学法学院)