人工智能面临的风险及伦理治理、法律规制
人工智能蓬勃发展,可能引发主体异化、“数字鸿沟”等风险,应通过“坚持伦理先行原则,制定科技伦理规范和标准”等方式,构建伦理与法律双重规制机制,综合运用多种措施防范和规制其风险。
习近平总书记指出,“中国高度重视创新发展,把新一代人工智能作为推动科技跨越发展、产业优化升级、生产力整体跃升的驱动力量,努力实现高质量发展。”近年来,新一代人工智能快速发展,日益成为经济社会发展的重要推动力。推动科技创新和产业创新深度融合,助力发展新质生产力,必须加快新一代信息技术、人工智能、量子科技等领域科技创新,培育发展新兴产业和未来产业。
我国自2021年9月印发《新一代人工智能伦理规范》以来,《关于加强科技伦理治理的意见》《生成式人工智能服务管理暂行办法》等相继发布。其中,《关于加强科技伦理治理的意见》明确提出,“提升科技伦理治理能力”“加快推进科技伦理治理法律制度建设”等要求。在人工智能蓬勃发展的当下,综合运用多种措施防范和规制人工智能风险,颇为必要。
人工智能可能引发的风险
主体异化风险。人工智能的发展可分为弱人工智能、强人工智能和超人工智能三个阶段。在弱人工智能和强人工智能阶段,机器根据人类预设的算法模型进行运算,并输出特定结果。弱人工智能仅能解决特定领域的问题;强人工智能阶段,机器具备思考能力,但总体仍受到算法的控制;超人工智能阶段,人工智能开始具备自主意识,不再受底层算法逻辑控制,可能远超人类智能。超人工智能阶段,机器与人的关系可能出现异化,甚至存在人工智能失控的风险,使其预设的“增进人类福祉”的价值目标可能难以实现,甚至可能给人类社会带来巨大的灾难。
“数字鸿沟”风险。“数字鸿沟”是指先进技术的成果不能为社会公众公平分享,出现“富者越富,穷者越穷”的现象。人工智能的发展可能加剧“数字鸿沟”,引发社会不平等现象,产生一大批数字弱势群体。该群体主要由老年人口、低学历人群、网络基础设施落后地区的人口等构成。在数字时代,数字弱势群体由于个体数字素养的差距,信息获取能力不足,致使其无法享受到数字红利。此外,由于人工智能发展水平不一和信息基础设施建设的差异,不同国家和地区之间的贫富差距可能进一步被拉大,从而使得“数字鸿沟”不断扩大,与人工智能的发展目标背道而驰。
算法歧视风险。基于商业秘密保护等原因,人工智能的底层逻辑算法一般不向社会公开,机器学习过程和数据结果输出过程并不透明,存在“算法黑箱”。从形式上看,“算法黑箱”的存在,使得算法可解释性不强,输出结果的公正性难以被证成,这有违基本的程序正义要求。从实质上看,算法模型设计过程中,不可避免地存在人的主观意识。从算法数据来源看,在数据标注阶段,设计人员向机器“投喂”的数据本身,可能存在歧视和偏见。这使得人工智能的运行存在歧视和偏见,且歧视风险可能会不断升级和叠加。
侵权风险。人工智能在运行过程中,可能存在对生命权、著作权、隐私权等的侵犯,如自动驾驶汽车致人死亡、生成式人工智能生成内容侵犯著作权、“AI换脸”等应用软件可能造成对他人肖像权的侵犯等。算法设计之初,算法设计者的道德观和价值观通常会被嵌入人工智能的底层逻辑中,若设计者将错误的道德伦理观念嵌入人工智能算法中,其在运作过程中可能侵犯他人的生命权、财产权等。但根据现有规定,人工智能不能成为承担责任的主体。
现有风险应对机制面临的问题
针对人工智能快速发展可能引发的风险,我国已经建立起包括伦理、法律、标准等在内的多元应对机制,如数据安全法明确规定开展数据处理活动应当尊重社会公德和伦理;《新一代人工智能伦理规范》要求伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,但现有风险应对机制还面临诸多问题。
伦理规范相对比较原则和模糊。在人工智能领域,伦理规范的应用,一方面可以引导人工智能发展的基本方向,另一方面可以给企业具体技术场景的选择提供空间。以《新一代人工智能伦理规范》为例,其明确提出人工智能特定活动应遵守的伦理规范包括管理规范、研发规范、供应规范和使用规范,并建构起人工智能全生命周期的伦理道德体系。从规范的具体表述看,其提出要“避免偏见歧视”“提倡善意使用”等,但“偏见”“善意”等名词的内涵,存在进一步解释的空间。同时,透明、公正、公平、隐私安全等原则虽然已经得到了关注,但如何解释上述原则,在实践中还存在实质性的分歧,这使得其可操作性不强,极大地影响伦理规范的适用。
法律位阶相对较低,且责任规范有待完善。随着新型技术的不断出现,我国相继出台了《互联网信息服务算法推荐管理规定》《生成式人工智能服务管理暂行办法》等,对人工智能可能产生的风险进行规制。但现有规范大多属于部门规章,法律位阶相对较低,且大多采取以应用场景为主的规制模式,存在挂一漏万的风险,难以有效对人工智能可能产生的风险进行全面规制。此外,从规范内容看,现有的规则大多缺乏责任条款,这使得实践中无法依照规范内容追究相关主体责任,影响责任机制功能发挥。
不同规范体系之间衔接有待加强。《新一代人工智能伦理规范》明确提出,加强伦理审查。但监管等配套制度有待进一步完善。虽然科学技术进步法规定了科技伦理审查,但是一种宣示性规定,并未明确构建具体的科技伦理审查、评估、监管体系。从标准层面看,《新一代人工智能伦理规范》提出,在研发过程中,严格遵守数据相关法律、标准与规范。但数据分级分类的国家标准、行业标准等还有待进一步完善。如《科学数据安全分类分级指南》(20221063-T-306)还在审批中,《数据安全技术 数据分类分级规则》(GB/T 43697-2024)尚未实施。现行有效的数据分级分类标准,多属于地方性标准,如《政务数据分级与安全保护规范》(DB11/T 1918-2021)、《政务数据 数据分类分级指南》(DB51/T 3056-2023)等,其适用范围有限。在人工智能领域,伦理规范与法律、标准等衔接不畅,使得伦理规范缺乏可操作性,三者亟待进一步有效衔接,以便充分发挥合力。
构建伦理与法律双重规制机制
坚持伦理先行原则,制定科技伦理规范和标准。科技伦理是开展科学技术开发需要遵循的价值理念和行为规范。作为法律的重要补充,伦理规范可以内化为法律规范,并在一定程度上影响法律的性质和方向。从域外实践看,欧盟对人工智能伦理风险的应对,经历了从政策和伦理性原则规制到专门性法律规制的转变。2019年,欧盟出台《可信赖的人工智能的伦理准则》,列举七项人工智能伦理原则,包括人类主体和监督;技术稳健性和安全性;隐私和数据治理;透明度;多样性、非歧视和公平;社会环境友好和问责制。此后出台的《算法责任和透明治理框架》对算法规制和算法责任等问题作了规定。这两者均是对2018年4月发布的《欧盟人工智能》提出“合适的伦理框架”具体要求的落实。我国应当在借鉴域外实践经验的基础上,进一步优化现有伦理规范,从多个维度列举人工智能伦理要素;细化科技伦理规范内涵,确保伦理规范的可操作性,将伦理规范嵌入人工智能开发、运行等各个阶段。
坚持依法治理原则,完善人工智能责任机制。2024年5月,欧盟通过《人工智能法案》,对人工智能进行全面监管。该法案旨在对欧盟人工智能的开发、投放市场、提供服务和使用制定统一的法律框架,促进人工智能应用,保护相关主体的基本权利。我国可在现有规范性文件基础上,进一步凝练人工智能的特性,在全国层面出台“人工智能法”,更好地应对人工智能技术风险。《国务院2024年度立法工作计划》将人工智能法草案列为预备提请全国人大常委会审议的项目。从现有学者建议稿看,建议稿设置专章对法律责任问题进行论述,明确了各个责任主体的行政责任、民事责任、刑事责任及合规免责等。下一步,我国立法机关应在不断调研的基础上,出台“人工智能法”,促进人工智能发展,并对其实施有效监管。
注重不同规则体系之间的衔接,促进不同规制体系融合。一方面,根据《新一代人工智能伦理规范》等规范性文件,在法律层面建立相应的监管机制。从比较法视角看,欧盟《人工智能法案》确立了多个监管机制,如全生命周期的风险管理机制、质量管理体系、监管沙盒等。我国《新一代人工智能伦理规范》对风险管理、质量管控等作了规定,但未对监管沙盒等机制加以明确。在监管领域,基于监管沙盒等的适用,可以为新型人工智能技术提供可控的实验环境,减少人工智能的试错成本和伦理成本。另一方面,优化人工智能领域标准的出台程序,加快制定人工智能伦理技术标准。人工智能伦理标准包括人工智能生产、制造和评估等各个环节的技术标准。基于技术性标准的出台,确保人工智能伦理融入人工智能全生命周期。
本文系浙江省哲学社会科学规划“之江青年”专项项目“数字法治背景下数字检察的理论基础与实践路径”(项目编号:24ZJQN076Y)的阶段性研究成果。
(作者单位:浙江财经大学法学院)