“人工智能时代的治理转型”系列报道之五

中国需要一部怎样的《人工智能法》?

  2024年5月8日,全国人大常委会公布2024年度立法工作计划,在预备审议项目中,“人工智能健康发展”的立法项目榜上有名。而就在两天前,国务院公布的2024年度立法工作计划中,亦明确“预备提请全国人大常委会审议人工智能法草案”。
  从2023年初OpenAI的ChatGPT惊艳问世,到2024年初Sora再一次引起全球关注,人工智能技术发展的脚步日益加快。科技在提速,立法的出台还有多远?为了了解我们需要一部怎样的《人工智能法》,记者采访到联合国高级别人工智能咨询组中方专家、中国政法大学数据法治研究院张凌寒教授。跟随她的脚步,我们一探究竟。
  
  一部让学界和实务界翘首以盼的立法
  
  采访最初,张凌寒便开宗明义指出:“中国应当有一部《人工智能法》来彰显立场,为人工智能技术产业发展保驾护航。也只有在法律这一位阶层面制定人工智能法律制度,才能够统筹协调并确立国家层面人工智能治理制度,真正实现立法先导,发挥法治在人工智能发展治理领域固根本、稳预期、利长远的基础性作用。”其实,学界、实务界对于这部立法的渴求由来已久。
  近年来,学界对人工智能法治的研究如火如荼。2023年8月,中国社会科学院国情调研重大项目课题组发布《人工智能法示范法1.0(专家建议稿)》,提出了负面清单管理等治理制度,并对人工智能产业链条各主体责任义务分配等核心问题进行了回应。这对于健全并提升中国在人工智能监管方面的制度和能力,无疑是一次非常有益的尝试。
  本着“回应合规痛点,促进产业健康发展”的初衷,2024年3月16日,在“AI善治论坛 人工智能法律治理前瞻”专题研讨会上发布了《人工智能法(学者建议稿)》。该建议稿由中国政法大学数据法治研究院、西北政法大学法治学院、中国信息通信研究院等7家研究机构携手起草发布。
  作为《人工智能法(学者建议稿)》起草专家组牵头专家的张凌寒告诉记者,人工智能立法是重点领域、新兴领域、涉外领域的综合立法。她说:“人工智能在创造生产机遇的同时,也带来了安全、隐私等问题。国务院总理李强在出席世界经济论坛2024年年会时指出,要以‘善治’促‘善智’。实现人工智能产业的健康发展,离不开行之有效的良法善治。放眼全球,随着联合国人工智能咨询机构的成立,人工智能国际治理的紧迫性日益凸显,世界主要经济体纷纷希望在人工智能治理中起主导作用。”
  随着2023年生成式人工智能问世,欧美等国家密集展开人工智能治理活动,加快布局人工智能立法,力图引领国际规则制定。如2023年10月30日,美国总统拜登签署《关于安全、可靠和可信地开发和使用人工智能的行政令》,以确保美国在AI发展和管理风险方面处于领先地位,同时美国各州也都在推进不同版本的人工智能立法。不久前,欧盟理事会正式批准了全球首部关于人工智能(AI)的全面法规《人工智能法案》,意图在人工智能治理中重现布鲁塞尔效应。
  张凌寒介绍,我国重视人工智能的发展和治理由来已久,早在2017年,国务院发布的《新一代人工智能发展规划》提出了“三步走”的立法规划,并在2023年5月31日发布的国务院2023年度立法工作计划中明确将《人工智能法》列入立法规划。2023年8月,《生成式人工智能服务管理暂行办法》施行,一部统一的、综合的《人工智能法》呼之欲出。
  此外,在其看来,这部综合性立法需要积极回应人工智能在中国本土的治理需求。据工信部最新数据,中国人工智能核心产业规模超过5000亿元,企业数量接近4500家,算力规模位居世界第二。相较于其他国家,中国人工智能呈现出多元化发展的领先优势,不断为中国的高质量发展提供新动能。在张凌寒看来,我国身为人工智能产业中“领先的追赶者”,与科技领先的美国和以输出治理理念为先的欧洲均有显著区别。“面对激烈的国际竞争,不发展是最大的不安全。我们的人工智能立法需回应中国本土的治理需求,一方面大力支持产业发展,另一方面又要兼顾切实的安全需求。”
  同时,她认为,我国的人工智能立法还需充分考量法律制度的涉外溢出效应。“在理念上,我国主张立足人类共同福祉,不同于其他国家主张国家利益本位。在制度上,我国需要回应国际博弈层面可能的长臂管辖与制裁打压,合理拓宽域外管辖范围,赋予中国执法机构和司法机构域外管辖的权力。”
  
  一部成为我国人工智能治理制度名片的立法
  
  《人工智能法》关系着我国未来人工智能产业发展、技术和社会治理体系变革,为人工智能时代个体权利的保护制度体系定调,绘制人与技术的合理关系图谱。今年全国人大会议期间,有多名代表提出关于制定人工智能法的议案,建议对人工智能发展和崛起所导致的各类法律问题开展立法研究,适时制定人工智能法。在我们已经拥有《网络安全法》《数据安全法》《个人信息保护法》《著作权法》等法律、《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等部门规章的前提下,为什么还需要一部单独立法?
  张凌寒认为,人工智能治理需要综合性的法律和监管体系,单独立法是应有之义。首先,《数据安全法》《个人信息保护法》等类似于人工智能时代的要素法,偏向某些特定的主题,而当下的发展趋势是算法、数据等要素治理逐渐被综合性的人工智能法所涵盖。其次,随着人工智能技术的发展变化,《个人信息保护法》等法律中的一些制度在履行时面临挑战,例如删除权、更正权等,存在难以适应大模型等新技术发展的情况,需要一部人工智能法进行回应。此外,关于算法、深度合成和生成式人工智能的部门规章,是针对不同的应用场景,不能很好地对基础模型和服务应用进行分层治理,从位阶上来说也不同于法律,而一部人工智能法可以成为我国人工智能治理的制度名片。
  与此同时,她认为也要考虑到人工智能立法相较于其他领域立法的特殊之处。“与其他领域立法相比,人工智能立法的最特殊之处,是需应对人工智能发展的高度的不确定性。这包括技术发展导致的调整对象和社会关系的不确定性以及风险种类和程度的高度不可预见性。因此,我国人工智能立法需要考虑设计具备迭代演化能力的动态监管制度,使治理充分适应产业特点。例如,设计合理的分类分级认定规则,建立人工智能动态监测、预警、响应机制,为产业创新开发监管试点(沙盒监管)制度等。这既能着眼当下划定监管‘红线’,也能面向未来为发展的不确定性留足空间。”她说。
  近年来,“小切口”立法备受瞩目,它的“快”“准”“稳”解决实际问题的针对性、适用性和可操作性,取得良好口碑。人工智能的立法要适于时,究竟是选择综合性立法还是小切口立法,也成为摆在立法者眼前需要考虑的问题之一。
  张凌寒认为,《人工智能法》应采用“总则式”体例,成为人工智能时代的基本法。“如果人工智能法定位为发展法和促进法,可以选择‘小切口’方式。但我们认为,目前人工智能的发展和社会需求,要求择机推进国家层面的综合性立法,以作为人工智能时代的基本法,这也是我们在建议稿中所呈现的。当然,人工智能技术发展的不确定性,决定了一部人工智能法无论如何‘大而全’都无法涵盖方方面面的问题,因此对于综合性的《人工智能法》,可以采用‘立总则,留接口’的方式,定位为人工智能治理的提纲挈领制度,确定治理的基本框架和理念,同时为未来的发展和治理预留容量和空间。”
  
  一部展现中国担当与智慧的立法
  
  张凌寒告诉记者,随着近年来国内治理进程的加快,客观上,我国已经是世界范围内唯一一个系统建设覆盖政策规划、科技伦理、法律、行政法规、部门规章与技术标准全位阶、多层次人工智能治理制度的国家,特别是制定公布了世界上第一部实质生效的生成式人工智能治理法规。“这种从具体到综合的立法模式,与欧盟立法人工智能治理体系从统筹规划至具体建立制度的发展思路迥异。”
  2023年,我国在“一带一路”国际合作高峰论坛上提出《全球人工智能治理倡议》,并提出十一点中国治理方案。张凌寒表示,中国的《人工智能法》代表人工智能全球治理规则之争中的主张,将随着我国人工智能产业发展产生域外影响,也将成为未来全球人工智能治理规则中的重要组成部分,发挥世界影响力。基于此,我国的《人工智能法》既应力求具备前瞻性、先进性,立足本土实践,也应具备国际视野,提出人工智能治理的中国方案,在国际竞争中发出中国声音。
  总体来说,张凌寒认为现阶段中国的人工智能立法,目标定位需明确为高擎发展旗帜,建立人工智能技术产业健康发展的良好生态,体系性地部署促进人工智能技术产业发展以及在生产生活中的应用。在主旨选择上,应彰显人本主义,设立“权益保护”专章,涵盖更广的个体权益保护范围,关注和重视社会弱势群体的权益保护,在制度设计中更好地体现人文关怀。在框架体例设计上,应选择“总则式”体例,廓清人工智能治理的基本框架脉络,为专门领域立法和未来发展变化留出接口。在制度设计上,应重点回应现阶段本土产业发展和治理需求,并为技术和社会发展的不确定性留足制度空间。在推动的步骤进路上,国内立法推进速度宜与参与国际人工智能治理同步联动,既适时建立国内制度体系,也应积极参与国际规制的制定。
  “发展与安全是技术立法的永恒命题。”她表示,我国人工智能立法既要体现对技术产业发展的促进导向,也要推动人工智能在生产生活中的合理应用。这意味着《人工智能法》不仅要设立专门的推进技术发展的制度板块,也应设置监督管理、责任规则等内容。
  她介绍,在起草《人工智能法(学者建议稿)》时,专家组成员一致同意法律在促进人工智能产业发展的同时不能突破安全底线,一致同意设立“促进与发展”专章,体系性地部署促进人工智能技术产业发展方面的制度。同时,专家们认为,相关制度应充分促进人工智能技术在生产生活中的应用,避免设立“高标准严要求”的监管制度。她解释,一方面,需要反思现阶段的制度,对于法律责任的设置,是否有利于保障产品和技术的发展;另一方面,需要打消公众对人工智能产品服务的安全顾虑。
  主旨选择上,正如我国在《全球人工智能治理倡议》中提到:“发展人工智能应坚持‘以人为本’理念,以增进人类共同福祉为目标,以保障社会安全、尊重人类权益为前提,确保人工智能始终朝着有利于人类文明进步的方向发展。”她认为,“以人为本”的人本主义理念具体落实在人工智能法律制度中,应包含多方面内容。
  “一是设立‘权益保护’专章,特别彰显‘以人为本’的人本主义理念。”她解释,由于公法保护缺乏灵活性、前瞻性,政府部门也往往囿于资源限制无法充分对其进行规制。赋予个体使用人工智能产品和服务时获得私权救济的路径,既可实现对层出不穷的新场景下技术“探路人”的法律保护,也可以有效弥补公法保护的缺陷,扮演权利宣示与权益保护“最后一道防线”的角色。
  “二是涵盖更广的个体权益保护范围。”她认为,在人工智能技术无法充分实现可视化与被解释的预设前提下,立法应从保护个体权利角度出发,防止人工智能技术对个体意思自治、个人信息及人的主体性等其他合法权益的不当限制或损害。
  “三是关注和重视社会弱势群体的权益保护。这也是贯彻《中国关于全球数字治理有关问题的立场》的必要之举。”
  无法避免,人工智能立法需要面临新技术迭代升级和产业快速增长问题。单以时间维度为例,人工智能的技术迭代以周或月为单位,科技研发“千帆竞发”,如OpenAI从发布GPT3.5到发布GPT4仅间隔数月。与此相比,人工智能立法周期可能以年为单位计。这便要求人工智能立法应当对调整对象的不确定性具有高度的适应性,能够有效包容未来可能的技术发展。
  既然人工智能立法要容纳和化解高度不确定性的诸多风险,张凌寒表示,通过《人工智能法》的框架体例来解决,不失为一个不错的“解题”思路。即以“总则式”为框架体例,以“廓主线”为主要内容,以“留接口”解决容量问题。
  “《人工智能法》的调整对象,是治理人工智能技术、产业和应用全链条以及在此基础上形成的复杂系统与社会生态。立法不能抱持‘毕其功于一役’的理念,试图去涵盖所有人工智能技术、要素和应用等不同维度的治理规则。可以参考民法典的立法经验,采用‘总则式’的立法体例。像一般原则、促进发展、权益保护、安全义务、特殊应用场景、监督管理、国际合作、法律责任等若干板块内容,构成了人工智能治理的基本框架脉络。这些板块可能成为章节抑或法条,但基本能够统领和涵盖当前和未来一个时期人工智能治理的主要问题。此外,人工智能领域已经深刻影响到了教育、医疗、金融、交通等领域,这一趋势未来还会继续延续。诸多社会生活领域的具体规则的制定,只能交给专门领域立法解决,《人工智能法》只能在有限条款中对特殊应用领域问题予以强化,此谓留足‘领域接口’。”她说。
  回到最初的问题,中国需要一部怎样的《人工智能法》?可以肯定的是,它一定是人工智能治理体系的提纲挈领之作,关系着人工智能技术产业的长远发展,更会深刻地影响人工智能时代的个体权利、社会运行、国际地位等诸多方面。
  让我们一同期待它的问世!
  ● 责任编辑:王健