以法治之力规范人工智能科技伦理治理
以法治之力规范人工智能科技伦理治理
——兼谈《人工智能科技伦理管理服务办法(试行)(公开征求意见稿)》
以法治之力规范人工智能科技伦理治理,重点要解决部分领域科技伦理治理失准、程序保障不够、相关法律法规体系不够完备等问题。要运用法治工具箱,明确人工智能科技伦理审查的定位、依法强化人工智能科技伦理审查程序保障和适时完善法律法规体系。
近年来,随着基础科学研究的不断深入和产业升级的纵深发展,大数据、人工智能、生物技术等得以普及应用,新场景、新平台、新业态持续出现,人工智能科技活动有序开展,规范人工智能科技伦理治理势在必行。要把握人工智能发展趋势和规律,加紧制定和完善相关法律法规、政策制度、应用规范、伦理准则,构建技术监测、风险预警、应急响应体系,确保人工智能安全、可靠、可控。8月22日,工业和信息化部等部门联合发布《人工智能科技伦理管理服务办法(试行)(公开征求意见稿)》(以下简称《征求意见稿》)公开征求意见。其中,《征求意见稿》第一条明确规定,“为规范人工智能科技活动伦理治理,促进公平、公正、和谐、安全和负责任创新,推动人工智能产业健康发展……制定本办法。”可见,进一步规范人工智能科技活动伦理治理势在必行,要进一步完善规范人工智能科技伦理治理的法治体系与法治路径。
人工智能科技伦理治理有助于促进高质量发展
依据《关于加强科技伦理治理的意见》《科技伦理审查办法(试行)》相关规定和《征求意见稿》第二条、第三条的规定,人工智能科技伦理治理是指在人工智能科技活动中,防控其伦理风险,提升其伦理治理能力,推动人工智能科技向善、造福于人。2025年发布的《人工智能伦理与治理白皮书》为人工智能应用设置“方向盘”,既要促进其技术迭代更新,又要划定产业创新安全区。
人工智能科技伦理治理主要聚焦两大类科技活动:一是涉及生命健康、人的尊严、生态环境、公共秩序、可持续发展等方面带来科技伦理风险挑战的人工智能科学研究、技术开发等科技活动;二是依据法律、行政法规和国家有关规定,需进行人工智能科技伦理审查的其他科技活动。这两大类科技活动的一个明显特征在于人工智能极大助力相应产业高质量发展。例如,在生命健康领域的人工智能科技活动中,科研人员利用人工智能和机器学习预测蛋白质结构,有助于疾病诊断、治疗和药物研发。这些科技活动的伦理问题值得高度关注。
不同于其他科技伦理,人工智能科技伦理具有跨区域、涉及面多样、治理工具迭代快等显著特点。在我国深入实施“人工智能+”行动的时代背景下,人工智能科技伦理治理正积极促进产业高质量发展,对提高产业效能、打破产业融合时空限制具有重要作用。特别是在统筹推进教育、科技、人才体制机制一体化改革背景下,人工智能科技伦理治理要以法治之力予以科学规范。这有助于释放人工智能赋能的积极因素,克服人工智能应用引发的不确定性风险挑战。
正确看待人工智能科技伦理治理存在的问题
人工智能科技伦理治理在促进高质量发展方面发挥重要作用的同时,也出现了部分领域科技伦理治理失准、程序保障不够、相关法律法规体系不够完备等问题。
第一,部分领域科技伦理治理存在失准现象。科技伦理审查是生命健康等领域科学研究和技术开发的必经阶段。强化科技伦理审查可以大大提高治理效率,降低治理成本,推动科技活动的高效开展。需要注意的是,人工智能科技伦理审查有别于生物医学伦理审查,后者因侧重于人和实验动物的伦理审查而不同于人工智能技术研发应用的伦理审查。当前,“人工智能+生物医学”领域的科学研究,首先遵从《涉及人的生命科学和医学研究伦理审查办法》关于以人为受试者或者使用人的生物样本、信息数据开展的相关研究活动等相关规定。其次,在生命健康、人的尊严方面带来科技伦理风险挑战的人工智能科学研究、技术开发,应优先遵从《涉及人的生命科学和医学研究伦理审查办法》还是《征求意见稿》?当两个规范文本之间出现伦理审查不一致时,应采纳哪一个?部分领域科技伦理治理的精准化问题值得学界和产业界共同关注。
第二,人工智能科技伦理审查的程序保障还不够。《征求意见稿》明确了科技伦理审查的申请与受理、一般程序与简易程序、专家复核程序、应急程序,确立了程序分工与衔接等一系列制度;规定了相应责任制度。人工智能科技伦理审查程序需要有严格的流程、透明的标准及科学的问责机制。同时,人工智能科技伦理审查,还要加强第三方组织的监督。如果缺乏这一监督机制,人工智能科技活动可能出现伦理风险外溢的情形。这不仅可能使人工智能产品的用户权益受损,而且可能使用户对人工智能技术的信任大打折扣。
第三,现行法律法规体系有待进一步完备。近年来,党和国家高度关注、引导和规范人工智能科技伦理治理,就发展人工智能科技伦理治理出台了一系列政策、文件。例如,国务院印发的《关于深入实施“人工智能+”行动的意见》《新一代人工智能发展规划》,工业和信息化部等4部门联合印发的《国家人工智能产业综合标准化体系建设指南(2024版)》等。我国各地针对人工智能应用的伦理要求也出台相应政策措施,强化对人工智能科技伦理的治理。但现行法律法规体系还不足以完全回应人工智能科技伦理治理的挑战。我国的个人信息保护法、数据安全法,以及《生成式人工智能服务管理暂行办法》《人工智能生成合成内容标识办法》等,有待在人工智能科技伦理风险评估、数据质量分析评估、算法审计等方面提供相对明确的规定,为相关科学立法做好保障工作。
运用法治工具箱规范人工智能科技伦理治理
解决人工智能科技伦理治理存在的问题,重在运用法治工具箱。运用法治工具箱不仅有助于促进人工智能为民发展、向善发展,而且也有助于规范人工智能科技伦理治理。
第一,相关责任主体应明确人工智能科技伦理审查的定位。生物医学伦理的基准是保护具体的、有感知的实验对象免受直接伤害,它的审查重点集中在实验过程是否符合伦理要求。而人工智能科技伦理较为广泛和抽象,它的审查重点围绕代码和算法。因此,相关责任主体应明确人工智能科技伦理审查的定位:它不只是开展人工智能科技活动和人工智能产品问世的一道手续,更是贯穿人工智能技术研发到应用全流程的“方向盘”和“刹车键”。相关责任主体要把伦理设计嵌入每一个环节,让伦理审查转变为有效构建可信人工智能的现实之举。
第二,相关主体应依法强化人工智能科技伦理审查程序保障。解决人工智能科技伦理审查程序保障不到位的问题,最直接、最有力的路径就是将其纳入法治轨道,以法的强制力为人工智能科技伦理治理“保驾护航”。一方面,法律法规应进一步增强人工智能科技伦理审查过程的问责机制,例如,重要的人工智能科技项目的伦理评估需附条件部分公开,接受社会监督。另一方面,法律法规应加强独立的第三方组织监督,确保人工智能科技伦理审查结果的中立与公正。
第三,立法部门须适时完善法律法规体系。在时机成熟时,立法部门应适时修订个人信息保护法、数据安全法及《生成式人工智能服务管理暂行办法》《人工智能生成合成内容标识办法》等,以成文规范的形式,明确人工智能科技伦理审查在公平公正、可控可信、透明可解释、责任可追溯、科技人员资质等方面的标准与程序,做好法律层面、行政法规层面以及部门规章层面的衔接,确立人工智能科技伦理审查结果互认的标准与程序。
以法治之力规范人工智能科技伦理治理,重点要解决部分领域科技伦理治理失准、程序保障不够、相关法律法规体系不够完备等问题。要运用法治工具箱,明确人工智能科技伦理审查的定位、依法强化人工智能科技伦理审查程序保障和适时完善法律法规体系。未来,对于人工智能科技伦理治理的新发展,法治工具箱将发挥不可替代的重要作用。
本文为2024—2025年度江苏省司法厅法治科研项目“江苏发展新质生产力的法治需求研究”(项目编号:2024jssf03)的阶段性研究成果。
(作者单位:南京师范大学中国法治现代化研究院)