算法治理中的行业自治路径探索

  近日,中央网信办通报,“清朗·网络平台算法典型问题治理”专项行动开展以来,重点平台进一步优化信息推荐算法功能、调整信息推荐算法规则,取得了一定成效,但还存在相关功能使用效果不显著、推荐内容质量不够高等问题。算法治理是一项长期性、系统性工程,网信部门将开展常态化巡查,督导信息推荐算法平台持续优化算法运行机制和管理规则,不断提升推荐内容质量,创新用户赋权功能,切实维护网民合法权益。为探索算法治理路径,本报开设“数字法治·算法治理”栏目,邀请专家学者就此进行探讨。


  算法作为人工智能发展的核心驱动力之一,其应用已深度渗透到金融、医疗、就业、司法等社会领域。然而,伴随而来的算法偏见、决策失真、平台垄断、数据污染等问题日益突出,对个人权利、市场公平竞争、社会治理效能等构成了严峻挑战。面对技术迭代加速的挑战,我国积极构建相关法律法规,已形成了以网络安全法确立的“网络运营者信息内容管理义务”为基础,融合个人信息保护法、数据安全法对个人信息权益保护和数据安全的核心保障要求,并经由《互联网信息服务算法推荐管理规定》《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)等专门性规章,形成了针对算法、生成式人工智能的法律规制体系。同时,我国明确提出“算法向善”、消除歧视、提高人工智能生成内容质量、增强透明度等具体治理目标。

  习近平总书记指出,要加强基础理论研究,支持科学家勇闯人工智能科技前沿的“无人区”,努力在人工智能发展方向和理论、方法、工具、系统等方面取得变革性、颠覆性突破,确保我国在人工智能这个重要领域的理论研究走在前面、关键核心技术占领制高点。这为算法治理指明了方向。要构建符合我国人工智能发展需求的敏捷治理体系,保持政策灵活性,留足制度发展空间,以保障技术的长远健康发展。2025年中央网信办开展的“清朗·网络平台算法典型问题治理”专项行动,积极践行该理念,聚焦平台主体自我约束,要求平台通过主动规范内容推送机制、保障用户选择权、提升算法透明度等措施,引导行业自律、推动标准制定,探索算法治理的有效路径。


  算法治理的现实困境与行业自治的正当性

  当前,算法治理主要面临三重核心困境:一是算法模型高度复杂且急速演进,监管部门难以实时、精准掌握所有前沿技术及应用逻辑。以生成式人工智能(如ChatGPT、DeepSeek)的快速发展为例,其已带来人工智能生成内容的著作权归属、人工智能幻觉、意识形态安全等新型挑战。二是应用场景的多元性与规则普适性之间存在天然矛盾。通用型人工智能的发展催生了高度细分的应用场景,如医疗诊断、金融风控、定向推送、内容生成等,其底层技术虽同源,但因数据输入、训练目标、优化策略的差异,导致输出的结果、应用影响范围和程度、伦理要求迥异。如果以单一规则进行“全链条治理”,既缺乏合理性亦很难具有操作性。因此,欧盟颁布的《人工智能法案》、英国出台的《促进创新的人工智能管理方法》及我国的《暂行办法》等广泛认可“基于风险”的分级分类监管模式,强调治理的场景适配性。三是创新激励与风险规制相悖,过于严苛或模糊的监管可能扼杀技术创新活力,而放任其野蛮生长则可能放大算法技术的缺陷,最终损害技术的可信度与发展潜力。因此,我国《暂行办法》第一条将“促进生成式人工智能健康发展”与“规范应用”并列为立法宗旨。由此可见,平衡之道成为算法治理的关键。

  基于此,笔者认为,行业自治路径的引入具备正当性,也契合当前的“敏捷治理”的内在要求。首先,行业主体尤其是头部科技企业,具备信息优势和专业能力。拥有算法技术的科技型公司,往往汇集了顶尖技术专家、法律人才以及相关业务运营者,具备对复杂算法进行专业性评估、风险预判及制定市场适配规则的能力,且对算法研发、部署、运行、持续性监管和最佳实践等方面拥有更及时和精准的认知。其次,行业自治规则的制定与修订机制相对灵活高效,能快速响应技术演进与市场变化。其规则内容更贴合算法治理的具体场景,可以运用“通用语言”而非抽象法条,提升其治理可操作性。例如OpenAI公示在其算法运行中应遵守的基本原则、我国重点平台签署“算法向善”南宁宣言,体现出企业和行业制定规则的能力和适应性正逐步提升,且这些规则不仅可以促进行业发展,获得社会和公众的广泛认可,还可以为高层级的规范提供经验。最后,行业自治是“协同治理”的关键环节。2021年9月印发的《关于加强互联网信息服务算法综合治理的指导意见》提出,打造形成政府监管、企业履责、行业自律、社会监督的算法安全多元共治局面。可见,行业自治与政府监管并非替代关系,而是承担着承上启下的关键枢纽作用。


  算法治理中的行业自治面临的挑战与出路

  中央网信办通报的“清朗·网络平台算法典型问题治理”专项行动成果显示,抖音、小红书、微博等平台围绕正能量内容加权推荐、用户自主选择权保障、推荐内容多样性优化、提升算法透明度等核心环节,系统性优化完善多项功能,展现出行业自治在专业性、灵活性层面的优势,但仍存在算法治理上的应用缺陷。

  其一,行业自治模式的内生缺陷。从行业自治的本源角度看,行业自治是市场主体主导的治理机制,其制定的技术标准、伦理准则等,可能倾向于降低合法成本或回避敏感问题,易陷入“既当裁判又当选手”的角色冲突,或者陷入“自治惰性”而怠于执行。甚至部分企业充当技术标准主导者时,可能抬高竞争者的成本,如OpenAI的O1安全项目内包含用“部分开源”换取“数据回流”的机制,即变相强化其技术生态,形成新型技术竞争壁垒。

  其二,算法治理中的行业自治可能带来合法性危机问题。首先,现行行业标准大多依据《人工智能生成合成内容标识办法》《互联网信息服务深度合成管理规定》等规范对平台自治行为进行“鼓励性或促进性”规定,或者源于各级政府的委托获得自治权力,但无法律法规的直接授权规定等,这导致行业自治权限的范围与限度存在一定争议。换句话说,行业自治究竟是以授权为限还是法无禁止皆可为、行业规则的制定主体与制定程序如何、违反企业与行业规则的后果又当如何?这些问题不仅造成企业制定规则时的困惑,更削弱其“主动”进行算法治理的意愿。

  为破解上述困境,有效回应自我规制的内生性缺陷,可以借鉴角色规范理论,通过明晰行业协会、企业等在算法治理中的权利与义务,并保障其运作的独立性和自主性,构建清晰的问责框架。在主体协同层面,我国算法治理应坚持“政府主导监管、行业自律协同”的基本原则。对于算法透明度、伦理嵌入、风险分类等具有普遍性的核心问题,应侧重制定基础性、原则性的监管框架,为行业自治划清底线。行业组织在此框架下,发挥其专业与场景适配优势,制定细化的规则与标准予以落实。同时,监管机构应识别并提炼行业实践中形成的有效、可行的共性规则,通过法定程序将其上升为具有法律约束力的规范,以此发挥政府与行业之间的有机协调与联动治理作用。

  未来人工智能立法应合理配置行政监管权与行业自治权,并细化自律机制的全流程规则,包括规则的制定程序、执行监督、责任承担规则。此外,还应强化监督机制的设计,明确监管机构和第三方监督的方式,保证监管效能与监督手段的可行性。同时,聚合用户参与的力量形成多元共治格局,通过社会公众的参与与监督,提升并维系公众信任,从“企业自律”转化为“可信人工智能”。

  行业自治作为算法治理体系形成的关键环节,其能否真正发挥作用,还需推动行业自治从“宣示性承诺”转化为“实质性多元共治”,唯有如此,方能在人工智能与算法快速发展之时,达成创新发展与安全可控的动态均衡。

  (作者单位:上海政法学院)