从“清朗·网络平台算法典型问题治理”专项行动看主体责任重构
“双轨”审核体系下的责任主体再定位
——从“清朗·网络平台算法典型问题治理”专项行动看主体责任重构
自2024年11月“清朗·网络平台算法典型问题治理”专项行动(以下简称专项行动)实施以来,中央网信办聚焦算法推荐技术衍生的低俗信息泛滥、“信息茧房”效应加剧、观点极化等问题,督导抖音、微博、小红书等重点平台优化算法推荐机制。各平台积极响应,签署“算法向善”南宁宣言,通过举办开放日、公示上榜规则、数据规则提升算法透明度,运用“茧房评估”“一键破茧”等创新功能打破信息壁垒,不断完善双重推荐审核机制过滤不良内容,并赋予用户自主调节推荐内容的权限。在此背景下,政府监管与企业自律并行的“双轨”审核体系逐步成型,网络平台算法治理初见成效。
然而,算法治理在实践中也逐渐暴露出一些深层矛盾。平台作为技术运营方承担内容审核主体责任,监管部门履行监管职责,但双方责任边界尚未通过法律框架形成清晰界定。随着《互联网信息服务算法推荐管理规定》(以下简称《规定》)《生成式人工智能服务管理暂行办法》(以下简称《办法》)的相继施行,传统平台全责模式正持续向政府主导监管、平台落实合规的“双轨”机制转型。这一转型过程中,法定监管责任与技术责任如何区分?平台审核义务的合理边界何在?用户赋权如何通过制度予以保障?责任再定位的可行路径是什么?以上问题均须从法律层面予以厘清。
法定监管与技术责任的分离
“双轨”审核体系的首要特征在于行政监管责任与平台技术责任的分离。依据《规定》第二十八条的规定,网信部门负责对算法推荐服务提供者进行安全评估和监督检查,其责任聚焦于合规监督,第七条则规定提供者应当落实算法安全主体责任,建立算法安全管理制度,承担具体内容过滤、规则公示、风险处置等技术责任。这种责任划分在专项行动中得到充分体现,网信部门通过巡查督导、约谈整改等方式推动平台算法优化,但不直接干预算法运行。比如,在“信息茧房”治理中,网信部门要求平台开发“一键破茧”功能,但具体技术路径由抖音首创“内容偏好可视化评估”、小红书设计“探索更多”模块自主实现,在避免行政权过度介入技术领域的同时,确保监管目标有效传导。
事实上,责任分离的制度设计具有法理正当性。平台作为数据处理者,根据《中华人民共和国数据安全法》第二十七条的规定,应履行全流程风险管理义务。网信部门会同有关部门依据《规定》第二十八条行使监管权,属于对算法应用风险的行政干预,符合比例原则。
平台审核义务的边界限定
实践中,平台责任在“双轨”审核体系中的再定位还需遵循权责匹配、多元共治的原则。当前,部分平台存在审核责任泛化倾向,将本应通过司法程序认定的侵权内容纳入算法自动拦截范围,超出技术能力边界。值得关注的是,英国“更优规制”框架下的“规制附属”理念,为我国平台责任配置提供了不同的分析视角。当责任下放至受规制组织时,必须通过问责与透明机制实现公共监督补偿。这与我国“双轨”审核体系的运行逻辑形成了内在呼应。
附属责任下的最小必要审核。《办法》通过第七条确保训练数据合法,并在第四条和第十四条分别规定了内容禁令与处置义务,共同要求提供者采取必要措施防范违法内容生成。此处必要措施的要求,可借鉴“规制附属”理念作三层解读:一是责任转移的正当性。当平台具备更强技术能力时,可将部分审核责任从行政机关附属转移至平台。二是透明性补偿机制。如微博“热搜标签”公示算法参数,正是对责任下放的透明性补偿。三是问责制保障。比如快手“正能量加权推荐”需配合《规定》第十八条所确认的网信部门巡查制度,构成纵向问责闭环。当然,从我国实践来看,还必须满足技术可实现性、风险关联性与措施适当性三重原则。即,平台可以采用与风险等级适配的技术过滤方案,替代不具操作性的全面人工审核,但仅对可能引发重大法益侵害的高危内容类型实施重点审核,并基于法益均衡原则,在内容干预时优先选择言论限制最小的手段。
自我规制的责任豁免边界。根据《最高人民法院关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》第八条与《最高人民法院关于审理利用信息网络侵害人身权益民事纠纷案件适用法律若干问题的规定》第九条的规定,网络服务提供者的责任认定须考虑其采取预防侵权措施的技术可能性及其是否采取了相应的合理措施。实践中,平台若援引上述条款主张免责,则须证明已建立有效的自我规制体系。即,当平台履行法定合规义务时,可依法不承担或免除部分责任。具体而言,在信息传播领域,平台须满足技术措施合理、无法识别侵权且未直接获利。而在人身权领域,平台则需通过算法全透明、风险提示、及时投诉响应及避免主动推荐侵权内容等自我规制行为,方可主张免责。
用户赋权机制的责任衔接
在“双轨”审核体系下,用户权利保障依赖于政府与平台责任衔接形成制度合力。专项行动中,政府通过构建赋权制度框架落实用户自主选择权。比如,《规定》第十七条以强制性规范要求平台提供关闭算法推荐服务的选项。与之相对应,平台责任则在于搭建技术实现路径。如,快手开发“兴趣标签强度调节”功能、抖音上线“使用管理助手”……这些均是平台为用户自主调整内容偏好提供操作接口。
但是,当前赋权机制也存在形式化赋权与实质性控制权的错配问题。有些平台“不感兴趣”的交互设计仅能实现单次内容屏蔽,无法干预算法模型的长期学习偏好,导致“信息茧房”的破除效果不彰。解决这一问题的关键,在于推动赋权机制从界面操作向算法底层深化。例如网信办督导的“茧房评估”功能与“内容偏好长期调节”服务,正是通过开放算法参数干预权,使用户获得对推荐系统的实质主导力。
责任再定位的优化路径
在当前法定监管与技术责任分离的框架下,平台审核义务虽逐步明确,但仅靠已有规定仍难以精准厘清边界,加之平台责任呈现扩大化趋势,导致监管目标模糊。因此,若要提升“双轨”审核体系治理实效,应通过动态清单机制限定责任范围,避免责任泛化引发的监管失调。从操作层面看,可以系统梳理专项行动的实践经验,搭建算法风险动态监测平台,对“信息茧房”形成率、低俗内容渗透率等核心指标实施实时追踪。以监测数据为基础,将高频风险领域纳入强制审核清单。此外,在低风险场景中保留算法自主优化空间,通过差异化治理路径实现精准监管。
同时,在分级治理框架中嵌入与责任相匹配的法理逻辑。对基础算法模块适用过错责任原则,重点审查平台是否履行算法规则公示义务。而对热搜置顶、敏感内容过滤等人工干预场景,则适用过错推定原则,要求平台自证审核流程是否符合《网络信息内容生态治理规定》第七条的价值导向要求,并通过《网络数据安全管理条例》第三十条确立的“数据安全负责人”制度细化自证流程,从而契合平台在技术执行与价值判断中的差异化角色定位。即,当算法作为工具时,责任止于透明度建设;当算法异化为权力时,则需承担价值纠偏的积极义务。
此外,应通过技术赋能监管破解“算法黑箱”。当前,微信视频号响应网信办专项行动要求,通过区块链存证技术,记录人工干预的操作者;依据条款及时间戳,为《规定》第二十四条要求的责任溯源提供证据。但《网络安全技术 人工智能生成合成内容标识方法》还要求,生成式人工智能服务提供者嵌入元数据隐式标识,实现内容生成源头的可追溯性。因此,在此基础上,应进一步要求平台向监管机构开放非侵入式审计接口,允许网信部门对推荐模型的特征库更新、权重参数调整等关键节点实施抽样验证,与《办法》第七条安全评估要求及第十四条透明度义务构成闭环,使监管从事后追责转向事前预防。
构建政府、平台、用户协同治理机制,实现可持续治理。目前,有的地方政府通过试点“沙盒监管”机制,在豁免特定法规约束的范围内鼓励平台探索创新工具,平台则通过自我规制弥合技术演进与制度滞后之间的“鸿沟”。在上述协同框架中,用户赋权环节应超越形式化的“关闭推荐”选项,转向实质性参与模式,允许用户通过滑动条调节内容多样性权重,并将用户操作数据的匿名化统计结果纳入算法合规年报披露范畴。至此,通过《规定》第六条倡导的“算法向善”形成行业共识,通过算法安全评估框架下的第三方审计白名单制度,推动算法治理从被动合规逐步迈向全社会共同参与的新范式。
(作者单位:华东政法大学中国法治战略研究院)