加快形成人工智能立法的中国方案

  党的二十届四中全会审议通过的《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》(以下简称《建议》)强调,“加强人工智能治理,完善相关法律法规、政策制度、应用规范、伦理准则”。作为引领新一轮科技革命和产业变革的技术,人工智能在全方位赋能千行百业的同时,也面临价值失序、利用失当、运行失范等法律风险,如一些不法分子利用人工智能实施非法获取个人信息、诈骗、侵犯知识产权、侵犯商业秘密等违法犯罪活动。为了有效促进人工智能技术高质量发展、保护个人和企业的合法权利,应加快形成人工智能立法的中国方案。


  人工智能立法的模式选择

  世界各国人工智能立法主要有两种模式,即统一立法模式与分散立法模式。统一立法模式的代表为欧盟,其于2024年制定的《人工智能法案》是全球首部“规范集中、体系统一”的综合性人工智能立法。有的国家人工智能立法采取分散立法模式,相关规定分散于各级别、各部门的立法之中。《建议》提出,全面实施“人工智能+”行动,以人工智能引领科研范式变革。在此背景下,采取统一立法模式规范人工智能发展可谓正当其时。

  当前,我国人工智能领域的立法散见于《中华人民共和国民法典》《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》,一些行政法规与部门规章中,如《生成式人工智能服务管理暂行办法》《互联网信息服务算法推荐管理规定》《汽车数据安全管理若干规定(试行)》,还有一些地方性立法中,如《上海市促进人工智能产业发展条例》《深圳经济特区人工智能产业促进条例》等。这些法律、行政法规、部门规章、地方性立法种类繁多、内容分散、体系复杂。

  分散立法模式的主要任务是“先试先行”,它具有试验性特征,通过短期试验的方式检验制度成效,等待时机成熟之后可转向统一模式。近年来,我国通过分散性立法的“先试先行”,已经探索出诸多适合我国人工智能发展与治理的关键制度,如人工智能训练数据安全保护、部分生成式人工智能内容纳入知识产权保护等。不过,分散性立法模式只能作为临时性的权宜之计,从长远来看,其存在三个根本性问题:一是重复性立法。在人工智能领域,下位法对上位法的复刻、同级立法规范的同质化等问题愈发普遍,有违立法的经济性。二是冲突性立法。由于缺乏统一的上位法,不同行业、不同地区在人工智能立法时可能有冲突,有损立法的权威性。三是象征性立法。在人工智能发展早期,我国部分领域制定的人工智能立法规范大多仅具有象征性、宣示性,有碍立法的实效性。

  未来,我国在人工智能领域应采取统一立法模式,并通过“三步走”策略融入已有的立法成果。第一步清理,清理人工智能领域重复性、冲突性、象征性立法;第二步整合,将人工智能领域已经通过“先试先行”审查的特色法律制度整合进立法;第三步建构,立足人工智能领域的中国问题、中国实践与中国话语,制定“人工智能法”。


  人工智能立法的基本原则

  党的二十届四中全会围绕人工智能治理体系的完善作了重要战略部署,强调要“健全数据要素基础制度”“加强人工智能同产业发展、文化建设、民生保障、社会治理相结合”。以良法保障“人工智能+”行动的全面实施,关键在于科学确立人工智能立法的基本原则。

  第一,确立风险可控原则。人工智能治理的首要任务在于平衡安全和发展的关系,要把握人工智能发展趋势和规律,加紧制定完善相关法律法规、政策制度、应用规范、伦理准则,构建技术监测、风险预警、应急响应体系,确保人工智能安全、可靠、可控。人工智能的迭代更新既不断驱动经济社会快速发展,也系统性放大社会治理风险,数据安全、财产安全、商业秘密安全等,如何有效管控人工智能风险亟待立法予以回应。风险可控原则嵌入人工智能立法,要求立法者根据人工智能的风险类型与等级建立分类分级监管机制,根据风险等级从高到低的变化监管力度依次递减。此种基于风险可控的分类分级监管机制在我国立法中已有初步体现,例如,《生成式人工智能服务管理暂行办法》第三条规定,对生成式人工智能服务实行包容审慎和分类分级监管。

  如何对不同人工智能风险进行分类分级监管?笔者认为,我国人工智能立法应践行风险可控原则,同步考虑利益分类(公共利益与个人利益)与风险分级(禁止、高风险、中风险、低风险),通过分类分级制度的有效实施引导人工智能技术向善。由于个人利益具有可处分性与可衡量性,而公共利益缺乏可处分性与可衡量性,因此,对公共利益风险的预防性监管应严格。其中,禁止性人工智能活动由于风险级别过高,无论涉及公共利益还是个人利益,一律不得开发和应用;高风险人工智能活动通常涉及公共利益,原则上也应被禁止,但出于保护国家利益或更大公共利益的除外。

  第二,价值对齐原则。人工智能治理应当遵循“以人为本”理念,以增进人类共同福祉为目标。它要求人工智能的设计、决策应当与人类的价值观、利益保护相一致,将“以人为本”作为可信人工智能构建的技术基准。

  价值对齐原则的实现分为两个层次:一是人工智能与人类现实价值对齐,即以人类现实利益为依归设计算法、执行指令、作出决策。此种意义上的人工智能风险主要来源于算法和训练数据,属于可预期的风险范畴。例如,为了防止人工智能算法歧视、滥用人工智能技术伪造信息数据等,立法要求对算法公平性和训练数据真实性进行有效干预以实现价值对齐。二是人工智能与人类远期价值对齐,这属于不可预期的风险范畴。无论人工智能系统如何精密设计与决策,都可能产生难以预期的风险。这就要求人工智能立法确立远端风险预防机制,及时阻断远端风险现实化。

  第三,穿透式监管原则。人工智能决策存在三大数字屏障,即算法技术“黑箱”、平台优势权力及海量数据决策。其中,算法技术“黑箱”限制监管者的认知能力,平台优势权力抑制监管过程的有效性,海量数据决策可能掩藏不法行为,三者叠加可能导致监管低效乃至无效。

  为有效监管和预防人工智能风险,应当确立穿透式监管原则。具体而言:一是通过确立算法高度透明义务以穿透算法技术“黑箱”,防止敏感数据被算法隐秘地滥用;二是通过确立平台义务清单与如实报告制度以穿透平台优势权利,防止平台以利益为导向的滥用权利;三是通过推行可用不可见机制阻断海量数据决策风险,防止监管力量被分散和被稀释。


  推进人工智能立法的重点方向

  随着“先试先行”立法的任务逐步完成,未来,我国要明确人工智能立法的思路与体例结构,并将实践证明可行的重点制度转化为立法规范,实现从分散性立法到系统性立法的质的跃迁。

  在立法思路上,应从“内容治理”走向“内容治理+行为规制”并举。当前,我国人工智能立法主要采取内容治理思路,如《生成式人工智能服务管理暂行办法》聚焦于所生成内容本身是否合法,缺乏对事前、事中、事后行为的有效规制,这导致人工智能风险管控难以实现全流程。人工智能立法应在内容治理基础上,将行为规制纳入,进而形成“内容治理+行为规制”并举的立法思路,对事前不当的数据收集、事中不当的算法决策、事后放任风险扩大等典型行为予以规制,这样才能建立体系闭环的有效监管机制。

  在立法体例上,应从侧重行政规制走向民行刑一体化调控。当前,我国“先试先行”阶段的立法重在促进人工智能技术发展,其规制措施主要是中端的行政手段,对前端的民事救济、后端的刑事制裁关注相对不足。未来人工智能立法应同步规定民事救济、行政规制与刑事制裁内容,并在体例上尽可能将三者形成梯度性的对应关系,以在民行刑一体化立法的基础上,为人工智能领域各类问题的善治奠定基石。

  在制度设计上,应重点发展人工智能领域的特色法律制度。未来,人工智能立法不仅要对已有的“先试先行”立法进行聚合,更需要朝着特色法律制度方向发展。例如,在内容治理层面,建立人工智能训练数据的来源确认制度、人工智能生成内容的合法性审查制度等;在行为治理层面,建立人工智能决策负面清单制度、人工智能高风险决策紧急阻断制度等。这些富有实效的特色法律制度,不仅要具备解决具体问题的实用性,还要共同构成人工智能领域区别于其他领域独特的微观法律系统。

  本文为国家社科基金项目“数字经济时代实质穿透式定罪的适用路径及其边界研究”(项目编号:25CFX114)的阶段性研究成果。

  (作者单位:中国政法大学刑事司法学院)