
本版文章标题:
新质生产力视野下的人工智能立法研究
习近平总书记创造性地提出发展新质生产力,为高质量发展注入全新动力。其中,人工智能作为促进新质生产力发展的重要引擎,在深刻影响生产力和生产关系的同时,也给现有法律关系、法律体系带来了多重层面的风险与挑战。如何解构人工智能的新质生产力属性,从新质生产力的视角剖析人工智能所面临的法治挑战,并通过立法因地制宜地推动人工智能发挥新质生产力作用,成为一项需要深入研究的重要课题。
一、新质生产力视野下加强人工智能立法研究的重要性和必要性
2023年9月,习近平总书记在黑龙江考察期间首次提出“新质生产力”这一重要概念,指出“整合科技创新资源,引领发展战略性新兴产业和未来产业,加快形成新质生产力”。这是在继承创新马克思主义生产力理论基础上,结合新时代中国特色社会主义实际提出的原创性概念,由技术革命性突破、生产要素创新性配置、产业深度转型升级而催生,以劳动者、劳动资料、劳动对象及其优化组合的跃升为基本内涵,以全要素生产率大幅提升为核心标志,特点是创新,关键在质优,本质是先进生产力。2024年1月31日,习近平总书记在二十届中央政治局第十一次集体学习时强调,“新质生产力是创新起主导作用,摆脱传统经济增长方式、生产力发展路径,具有高科技、高效能、高质量特征,符合新发展理念的先进生产力质态”;“要以科技创新推动产业创新,特别是以颠覆性技术和前沿技术催生新产业、新模式、新动能,发展新质生产力”。党的二十届三中全会通过的《中共中央关于进一步全面深化改革、推进中国式现代化的决定》要求,健全因地制宜发展新质生产力体制机制;完善推动新一代信息技术、人工智能等战略性产业发展政策和治理体系;推动制造业高端化、智能化、绿色化发展;加快构建促进数字经济发展体制机制;建立人工智能安全监管制度;完善生成式人工智能发展和管理机制。
2025年3月5日,习近平总书记在参加他所在的十四届全国人大三次会议江苏代表团审议时指出,科技创新和产业创新,是发展新质生产力的基本路径。近年来,随着科技创新的持续推进,互联网、云计算、大数据、人工智能、区块链、元宇宙等现代新兴信息技术迅速发展,已成为新质生产力的代表,正催生着新一轮科技革命和产业变革,由此推动科技法治与科技法学的新发展。其中,人工智能作为数字科技领域中最具代表性的核心技术,是促进新质生产力发展的重要引擎。同时,随着人工智能产业对生产力和生产关系的深刻影响和深度改造,也加剧了技术发展与现有法律关系、法律体系之间的矛盾。早在2017年,国务院印发的《新一代人工智能发展规划》就指出,“人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响”,并提出“初步建立人工智能法律法规、伦理规范和政策体系”。当前,人工智能技术处于快速发展期,治理体系正在加速构建完善。作为新质生产力的人工智能既带来了法治风险,也带来了法律制度和规则更新迭代的契机。
二、人工智能作为新质生产力带来的法律挑战
2021年,联合国教科文组织大会将人工智能定义为:整合模型和算法的信息处理技术,这些模型和算法能够生成学习和执行认知任务的能力,从而在物质环境和虚拟环境中实现预测和决策等结果。美国斯坦福大学教授约翰•麦卡锡将其定义为:人工智能是制造智能机器,特别是智能计算机程序的科学和工程。人工智能作为引领未来的战略性技术,具有自主智能属性、通用赋能属性、要素撬动属性,高度契合新质生产力内涵。人工智能重塑了既有的生产方式与生产关系,技术发展的速度超出了社会预期,由此产生了安全、伦理、规则等多重层面的法律问题,传统法律制度和法治体系逐渐显现出诸多不适应,社会治理体系也亟需完善。加强人工智能立法,首先要对人工智能的独特属性形成清晰明确的认识,制定合理有效的法律法规来规范引导人工智能的科学有序发展,进而推动新质生产力发展。
(一)安全问题
当今人工智能的发展以海量的数据资源为支撑,不仅涉及数据潜在价值的发掘,还包括通过技术创新和智能算法的应用来实现数据的价值创造,并最终将这些价值转化为经济增长和社会发展动力。人工智能催生出新产业新业态,推动生产力向更高级、更先进的质态演进。但在处理数据资源过程中,也带来了诸如数据泄露、深度伪造、事故责任等一系列不容忽视的安全问题,给国家安全、社会秩序和网络空间安全带来严峻挑战。
一方面,输入的数据存在一定隐患。数据本身可能潜藏问题或有被篡改的风险,一定程度上源于数据收集过程中存在偏差、不准确或不完整,或者数据标注时有错误或不一致性。这可能导致原始数据质量下降,影响输入数据的可靠性,致使人工智能分析应用数据的结果不准确,引起原始数据与衍生数据的归属权、控制权和使用权的界定难题。另一方面,通过深度学习和大数据处理来构建人工智能模型时,由于数字技术缺陷、人为操作失误或黑客恶意攻击等原因,数据造假、算法窃取、软件漏洞等安全隐患易发频发。此外,人工智能还可能危及人身安全。例如,以分析患者的医疗数据来提供个性化治疗方案的医疗机器人、以处理道路交通数据来提供出行服务的自动驾驶汽车等智能设施,当其算法运行程序出现漏洞或安全系统遭到恶意破坏时,容易引发重大安全事故。因此,保障作为新质生产力的人工智能在安全有序的环境下发展,是贯彻新发展理念的必然要求,更是维护国家安全、网络与数据安全的应有之义。
(二)伦理问题
随着新型生产关系的构建,人工智能带来的伦理问题正逐渐冲击已有人类主导的法律秩序、社会秩序,人机之间的界限逐渐模糊,由此带来与个人、社会、环境等多方面相关的伦理风险,应制定科学合理的法律法规,实现人工智能稳定应用,保障新质生产力发展。
首先,个人层面的人工智能伦理问题。人工智能在实践中会采集、模仿人类的声音声纹、面部表情、肢体动作、知识作品等,并借助光学技术、声音控制、人脸识别、深度思维等技术,提升技术服务水平,完成自身研发升级。但在这一过程中,若未经他人允许而进行采集模仿或利用他人肖像、隐私等人格权客体,即存在一定的安全风险和权利争议。此外,基于人工智能可不受他人干扰而独立自主行为的属性特征,其广泛应用会在一定程度上限制人类的自主权,需要立法者慎重考虑是否承认其法律主体地位。其次,社会层面的人工智能伦理问题。人工智能借助算法实际操作运行时,既有可能自主调整各项参数和规则,也有可能利用算法歧视、算法合谋等方式侵害用户权益,致使“算法黑箱”的形成,由于不易察觉或举证且缺乏程序透明度,难以保证公民的知情权和监督权,挑战社会公平正义。此外,由于劳动者使用人工智能的能力各不相同,人工智能的广泛发展可能会导致“数字鸿沟”,引发结构性失业,激化社会矛盾,影响社会稳定。最后,环境层面的人工智能伦理问题。2021年11月24日,联合国教科文组织第41届大会通过了《人工智能伦理问题建议书》,强调“在人工智能系统的整个生命周期内,会员国和工商企业应评估对环境产生的直接和间接影响”。人工智能的发展应用依赖大量的硬件设备,以高能耗为运行特征。因此,人工智能系统在其生命周期内,通常会消耗巨大的自然资源,如不加规制便会造成严重的环境污染,不利于可持续发展。
(三)规则问题
2024年3月21日,联合国大会通过首个关于人工智能的全球决议《抓住安全、可靠和值得信赖的人工智能系统带来的机遇,促进可持续发展》,已认识到人工智能规制不足所带来的风险。决议指出,“人工智能系统,其生命周期包括前期设计、开发、评价、测试、部署、使用、销售、采购、运行和淘汰等阶段”“不当或恶意地设计、开发、部署和使用人工智能系统——例如在没有适当保障措施或不符合国际法的情况下——构成风险”。
一方面,在设计开发环节,人工智能的算法、数据、算力三要素存在规制不足问题。算法作为人工智能的核心技术,具有自主学习、辅助决策、配置社会资源等作用,凭借机器优势、架构优势和嵌入优势演化为新型的准权力,如果缺乏规制会出现新的权力滥用。例如因算法的高度复杂技术特征导致权力不透明的“算法黑箱”,又如利益驱使下算法通过数据分析导致对特定群体的“算法歧视”等。而算法的基础是大数据,是人工智能的主要社会资源和新型生产要素,在数据确权、数据安全、数据流通规则等方面需要完善。另外,服务于算法和数据的硬件、软件基础算力,依赖于能源、资源、人力等市场要素的配置,算力作为数字时代的新型生产力对推进“东数西算”战略的落实至关重要,其发展需要规则予以保障。另一方面,在部署应用环节,人工智能的通用赋能属性,使其对人类社会产生广泛而深远的影响。自动驾驶汽车、智能诊疗系统、人形机器人、生成式人工智能等具体应用不断出现,产生了全新的权利义务关系。其中,自动驾驶车辆存在道路交通事故的归责对象争议问题,智能诊疗系统存在自主性、透明性、安全性不足以及医疗事故归责问题。随着人工智能机器人的出现,“机器犯罪”对刑法规制体系带来冲击,传统的刑法构成要件难以辨析责任承担,以及如何区分研发者、使用者与人工智能致害结果的因果关系问题。另外,目前人工智能已经进入执法、司法领域,给法律程序、诉讼参与人制度、诉讼权利义务关系带来了许多不容忽视的问题。
三、强化人工智能发挥新质生产力作用的立法保障
人工智能是新一轮科技革命和产业革命的核心引擎,是推动新质生产力快速发展的重要驱动力,但亟待通过制定法律法规来规范和引导人工智能技术的进步,以“善治”促“善智”。2025年3月11日,第十四届全国人民代表大会第三次会议审议批准了《全国人民代表大会常务委员会工作报告》,在今后一年的任务中明确提出,围绕人工智能、数字经济、大数据、自动驾驶等新兴领域加强立法研究。我国人工智能制度设计和立法实践,一方面要具备前瞻性和先进性视角,在推动出台具有中国特色的人工智能法的同时,灵活修改完善相关法律规则,发展具有中国特色的人工智能治理体系,在人工智能的国际治理竞争与合作中发出中国声音、提出中国方案;另一方面要具有国际视野,统筹推进国内法治和涉外法治,促进人工智能立法与国际接轨,加强人工智能领域的国际交流与合作,推动构建开放包容的全球人工智能治理体系。
(一)当前国际人工智能立法规制情况
加强人工智能治理已成为当今世界各国面临的共同课题。前述联合国大会决议、联合国教科文组织的建议就是人工智能规制倡议性文件。2023年10月,美国发布的《关于安全、可靠、可信地开发和使用人工智能的行政命令》,为人工智能安全和保障建立了新标准。欧盟理事会于2024年5月正式批准全球第一部人工智能法案,以人工智能技术风险分级管理为核心,为人工智能治理提供了高标准规则框架。欧盟人工智能法强调立法的留白,重点关注高风险人工智能,注重数据合规、个人数据保护等。美国的行政命令仅要求能力超过GPT-4的超大能力大模型强制披露必要信息。英国《支持创新的人工智能监管方式》白皮书指出,由于通用大模型涉及领域的广泛性,难以将其纳入任一监管机构的职权范围,应加强中央层面的监管协调。新加坡将建设全球人工智能解决方案中心、参与全球人工智能技术规则制定、形成多方共赢的合作模式,作为人工智能发展战略的三个核心方向。总体看,多数国家对人工智能立法比较慎重,呈现出保守倾向。由于人工智能技术发展已经成为政治、经济和技术“三位一体”的复合型问题,各国需要协作面对。但美国高度警惕我国的技术追赶,出台了大量针对中国人工智能领域的封锁、制裁和惩罚性举措。鉴于此,我国人工智能立法应当积极应对风险挑战,承担大国责任,展现大国担当,探索全球人工智能法治的思路和方案,引领全球人工智能产业走普惠、有益、安全的发展道路。
(二)国内视角下人工智能立法展望
第一,当前国内立法概况。我国人工智能的发展走在世界前列,也在不断探索对人工智能的立法规制。2023年10月18日,习近平主席在第三届“一带一路”国际合作高峰论坛开幕式上宣布中方提出《全球人工智能治理倡议》,围绕人工智能发展、安全、治理三方面系统阐述了人工智能治理中国方案,主要包括坚持以人为本、智能向善,坚持相互尊重、平等互利,建立风险等级测试评估体系等。近年来,我国相继出台了网络安全法、数据安全法、个人信息保护法等法律,为人工智能的发展提供了基本法律框架。2025年3月7日,国家互联网信息办公室等四部门联合发布《人工智能生成合成内容标识办法》,将于2025年9月1日起施行。我国人工智能立法,应当从中国本土实践特色出发,秉持人本理念,坚持发展与安全并重的系统思维,既注重人工智能带来的创新和进步,也重视可能带来的风险和挑战;既总结既往网络立法经验,又合理借鉴国外法律和国际规则中的制度资源,适应国际合作与竞争。通过科学、全面的立法,构建具有中国特色的人工智能法治体系。
我国人工智能立法可以在“集中立法+要素立法+场景立法(1+3+X)”的模式下有序推进。一方面,应当出台一部具有中国特色的人工智能法,为依法加强人工智能治理提供基础规则,保障新质生产力下新型劳动关系与要素在安全的基础上不断发展。在此过程中,需要充分认识人工智能法“公私交融”的特征,避免陷入私法规范或公法规制的单一路径。同时,还要看到人工智能不仅具有技术性还具有社会性,人工智能的综合立法应包含人工智能的权利法、责任法、市场法、监管法和促进法,构建自上而下与自下而上的双向治理范式。另一方面,人工智能的集中立法固然能从整体上明确原则、提供指导、提炼共识、挖掘共性、划定红线,但不应寄希望于毕其功于一役。一是人工智能产业的应用广泛,不同应用场景的人工智能风险类型与发展挑战各不相同,集中式的立法无法面面俱到。二是算法、算力、数据的共同作用是新一轮人工智能热潮的根本原因。在人工智能集中立法的同时,还需要结合人工智能的要素与场景进行分散式的补充立法,才能适应人工智能作为新质生产力更新迭代迅速、技术不确定、风险难预见等特征。要在人工智能法的基础上,结合网络安全法、数据安全法、个人信息保护法等已有智能要素立法,完善数据财产法、算法问责法、算力安全法等智能要素法的制定;同时,推动自动驾驶汽车、医疗人工智能、人形机器人等应用场景的专门立法,破解不同人工智能应用形式面临的法律挑战,最大程度激活新质生产力的潜能。
第二,人工智能立法理念。人工智能技术的深入研发与应用,不仅涉及国家利益和社会公共利益,还涉及私人利益。对人工智能进行法律规制,是一项牵一发而动全身的系统工程。人工智能立法应以增进人类共同福祉为目标,以保障社会安全、尊重人类权益为前提,以规范人工智能在法律、伦理和人道主义层面的价值取向为宗旨,坚持平等互利,促进智能向善。
立法目标。人工智能法的制定,应“以增加社会公共福祉为目标”,既保障安全又强调发展,在参考既往科技领域立法的基础上,结合人工智能实践中的问题,前瞻性地涵盖适用范围、法律原则、法律义务、法律责任等方面内容,保障人工智能发挥新质生产力作用。
法律价值原则。坚持以人为本、智能向善,应将道德、伦理、公平、自由等价值因素纳入人工智能法的制定考量中,阐明人工智能法治实践应当遵循的基本原则,包括人本原则、安全原则、发展原则、公平原则、透明原则等,确保人工智能始终朝着有利于人类文明进步的方向发展。
法律适用范围。立法应涵盖人工智能设计研发、提供、使用等生命周期各环节,实现对人工智能法律风险的全生命周期治理。在人工智能实践过程中,科学划定应当重点监管的高风险领域,其他低风险领域可以采取适当的放松政策,确保监管的精准性和有效性,进一步激发市场活力和创新动力。
权利义务设置。基于人工智能产业链中主体的多样性与复杂性,可按照不同活动特点区分人工智能的研发者、提供者、使用者,合理分配权利义务,包括但不限于保障人工智能安全性、公平性和可解释性,进行科技伦理审查和安全审查等,确保所承担的义务与潜在风险相匹配,坚决维护安全底线,保障人工智能技术健康发展。
第三,人工智能立法具体规则。坚持分级治理理念。人工智能更新迭代快、发展潜力大,实行风险分类分级的动态监督管理,能够保障人工智能的安全性和合规性。同时,还可以提高人工智能治理的适配性与精确度,避免“一刀切”带来的安全与发展的失衡,激励人工智能产业创新,促进其健康、合规、可持续发展。应当全面考虑各类人工智能对新质生产力发展的重要程度,高度关注其发展过程中可能带来的潜在风险,审查其对国家安全、社会利益或者个人合法权益可能造成的危害,定期评估、调整现有的风险分级标准,针对性地制定监管措施。同时,对于具有高风险的人工智能,应当构建人工智能“守门人”规则,确保风险管理职责到位。
完善人工智能责任规则。目前,人工智能已在多个应用领域引发事故、造成损害侵权等,产生了责任分配问题,比如自动驾驶汽车失控导致交通事故、生成式人工智能著作权侵权等,亟需完善相关责任规则。一是适度的罚款制度。对于严重违法开展人工智能研发、提供、使用活动的,应当综合考虑行为人的规模、主观过错、行为后果、获利情况等进行罚款,以便起到威慑作用。二是合理的侵权责任规则。针对人工智能风险事故、损害侵权等情况,应当以主客观因素、因果关系为基础,分配不同法律主体的责任。既要完善人工智能产品责任,以便应对研发生产端的风险致害问题,解决生产者、销售者一方的责任,又要完善应用端的提供者、使用者一方的责任规则。三是适当的免责规则。为推动人工智能产业的发展与应用,鼓励企业采取合规措施预防风险,确保人工智能的良性发展。同时,对于免费开源人工智能进行适当的责任豁免,以便鼓励知识共享与技术创新。此外,对于以生成式人工智能为代表的人工智能服务,应当更新“避风港”规则,合理界定提供者与使用者之间的责任。
构建新型产权规则。一方面,通过法律的形式明确数据产权规则,构建新质生产力作为新型劳动对象的人工智能要素分配规则,合理确定数据在获取、处理、流通过程中的权利归属,完善和细化数据产权的结构性分置规则。另一方面,对于算法等新型劳动资料,可以探索以专利权、新型知识产权等规则为代表的确权和权利保护路径。此外,对于生成式人工智能生成内容的权利确认和归属,则需要更新现行著作权法中的独创性认定标准、“思想表达二分法”和合理使用、风险负担以及责任承担等规则,积极推动知识产权制度的理论创新、功能发展和机制优化,构建新质生产力下人工智能新型生产关系中的产权规则,重新定义专利、外观设计、文学和艺术作品等固有的知识产权概念。
构建风险防控机制。鉴于人工智能技术及其广泛应用会带来“算法黑箱”、隐私泄露、“大数据杀熟”等风险隐患,主管部门应当加强与企业、组织、科研机构以及公众之间的合作和沟通,收集分析人工智能安全信息,按照危害程度、影响范围等因素对安全事件予以准确分类分级,制定合理且切实可行的处理方案,构建风险监测预警和信息通报制度。同时,还应引导企业和行业组织进行自我监管,要求科研机构协助监督和识别潜在风险,帮助公众提升人工智能风险防范意识,确保对既有风险和潜在风险的及时处置和有效防范。
建立统筹协调治理机制。实现人工智能有效治理,应以统筹发展与安全为目标,以统筹伦理、立法、标准等治理板块为核心,以统筹既有治理经验及资源与人工智能发展实际问题为切入点,建立并完善国家层面的人工智能统筹治理机制,定期开展人工智能技术监测、评估、审计工作,调查收集人工智能发展和治理情况,统筹设置国家层面的人工智能管理机构,以提供强有力的组织与制度保障。
{本文系中国法学会2024年度习近平法治思想研究专项委托课题“加强因地制宜发展新质生产力的法治保障”〔CLS(2024)WT–11〕的部分研究成果}
作者:西南政法大学教授,重庆市人大法制委员会主任委员