浅析《人工智能科技伦理管理服务办法(试行)(公开征求意见稿)》

人工智能科技伦理审查的制度逻辑与优化路径

——浅析《人工智能科技伦理管理服务办法(试行)(公开征求意见稿)》


  8月22日,工业和信息化部等部门联合发布《人工智能科技伦理管理服务办法(试行)(公开征求意见稿)》(以下简称《征求意见稿》),公开征求意见。意见反馈截止时间为2025年9月22日。

  《征求意见稿》对《关于加强科技伦理治理的意见》(以下简称《治理意见》)《科技伦理审查办法(试行)》(以下简称《审查办法》)等通用性规范在人工智能领域进行具体落实,进一步统筹高质量发展和高水平安全,将抽象的人工智能科技伦理原则转化为具体可操作的管理服务流程。


  以程序化治理为核心的人工智能科技伦理审查

  《征求意见稿》在《审查办法》确立的通用程序化治理框架基础上,通过精准的制度适配与内容深化,形成了以程序化治理为核心特征的人工智能科技伦理审查与服务体系。

  首先,科技伦理体系化。《征求意见稿》继承并细化《审查办法》,构建了体系化的人工智能科技伦理管理服务规则。相较于《审查办法》,《征求意见稿》新增“支持与促进”一章,并将标准建设、服务体系机制、鼓励创新、宣传教育、人才培养等支持措施纳入其中。这不仅体现《征求意见稿》管理与服务并重的定位,也改变了以往人工智能科技伦理要求散见于各类政策文件的局面,为人工智能科技活动提供系统性的伦理遵循。

  其次,伦理审查程序化。《征求意见稿》承袭《审查办法》区分的“一般、简易、专家复核、应急”四种审查程序,确保与国家科技伦理治理体系的统一性与衔接性,在第十五条的审查重点中,将《审查办法》中涉及数据和算法科技活动的较为原则性的伦理要求,细化为有针对性的审查标准,并对算法偏见、模型鲁棒性、日志管理等提出了明确要求,显著提升了人工智能科技伦理审查的可操作性。此外,《征求意见稿》还落实《审查办法》风险分级的治理理念,细化高风险活动的识别与审查机制,规定了“需要开展科技伦理专家复核的人工智能科技活动”清单与相应的专家复核程序。

  最后,审查主体多元化。《征求意见稿》不仅重申高等学校、科研机构、医疗卫生机构、企业等从事人工智能科技活动单位的责任主体地位,鼓励其设立伦理委员会,落实并细化《治理意见》《审查办法》中关于建立专业性审查中心的要求,明确提出建立专业性人工智能科技伦理服务中心制度。这一设计考虑到中小微企业等主体在独立设立伦理审查机构方面的现实困难,通过社会化的服务降低合规门槛,体现包容审慎的监管理念。


  人工智能科技伦理审查的性质、策略与实效

  首先,人工智能科技伦理审查的性质更侧重于合理性审查,其功能定位区别于传统的法律风险评估。它的本质在于对特定科技活动进行超越法律底线的价值权衡,审视其是否符合人类福祉、人性尊严、公平公正等根本伦理原则,以防范可能侵蚀人类主体性、动摇社会伦理共识的深层风险。据此,《征求意见稿》第十五条所列的审查重点,如“公平公正”“可控可信”“透明可解释”“责任可追溯”等,虽然均是重要的伦理维度,但在表述上却易与技术安全、法律合规混同,削弱伦理审查的独立价值。应警惕伦理审查被异化为变相的法律合规审查,明确引导审查主体将审查重心聚焦于科技创新的“合理性”本身。

  其次,人工智能科技伦理审查的策略应基于其技术特性与应用广度,构建场景化、精细化的应对路径。与生命科技相对聚焦的应用领域不同,人工智能技术已广泛赋能于自动驾驶、金融风控、医疗诊断与信息生产等诸多领域,其伦理风险呈现出显著的场景依赖性。尽管《征求意见稿》通过“复核清单”与审查重点的设定已展露出探索场景化治理的意图,但这种清单式的分类相对比较宽泛,其审查程序亦未能建立起对不同应用场景伦理挑战的差异化、精细化应对机制。同时,《征求意见稿》第十一条构想的“伦理服务中心”虽为提供专业服务预留了制度接口,但其自身如何生成并匹配高度分化的场景化审查,仍有待细化与充实。

  最后,人工智能科技伦理审查的效果与伦理嵌入设计理念的落实密切相关,这是决定伦理审查能否摆脱“实效赤字”的关键。伦理规范作为典型的软法,其效力受到规范的非强制性、规范本身的抽象性及商业逻辑等多重因素的影响。因此,建议将伦理原则通过技术手段直接嵌入算法、模型与系统设计,实现伦理嵌入设计。尽管《征求意见稿》已初步体现了这一理念,但总体审查框架仍主要沿袭《审查办法》的通用程序,侧重于外部的、专家主导的事前审查和事后监督模式,尚未将技术可嵌入性提升到核心地位,应进一步完善。


  人工智能科技伦理审查制度的优化路径

  总体上看,《征求意见稿》优化路径可从以下几个方面展开:

  其一,明确人工智能科技伦理审查与其他治理机制的区分与整合。从法律效力角度看,科技伦理审查的结论不应直接等同于法律责任判定,而应被定位为在司法或行政追责中,评估当事方注意义务履行状况与主观过错的专业参考依据。在此基础上,应构建激励兼容机制,促使科技伦理审查从外部约束转为内生动力。《征求意见稿》已借助标准制定、技术创新与管理认证等措施,意图将伦理合规从纯粹的企业成本转变为潜在收益。然而,现有激励措施比较粗略,建议进一步探索如何为科技创新主体提供更有效的正向激励措施。同时,伦理审查须与现有法律框架下的多元评估机制进行体系化衔接。如何在现有衔接规定的基础上探索推动网络安全法、数据安全法、个人信息保护法及《生成式人工智能服务管理暂行办法》等所建立的多元评估机制在程序与实体标准上的整合与互认,建立一体化的风险评估与合规体系,以从根本上避免重复评估、多头监管,降低制度成本,仍亟待进一步深入研究。

  其二,提升审查主体的权威性、专业性与独立性。《征求意见稿》第六条鼓励探索基于应用场景的风险评估,为“场景驱动”审查模式奠定基础,可授权国家级专业机构或行业协会探索“场景驱动”的审查标准体系,根据不同的风险场景匹配具有权威性的审查主体,广泛吸纳产学研用各方,牵头制定针对金融、医疗、交通等关键领域的AI伦理风险评估指引。同时,《征求意见稿》对审查机构的专业性作了规范。为强化审查机构的独立性与专业构成,保障审查的深度与客观性,还可对技术专家的资质、遴选标准等进行更具体的规定。对于《征求意见稿》鼓励发展的社会化伦理服务中心,在现有规定基础上还可细化审查人员的利益冲突回避义务,以防范其与受审单位形成利益共同体,确保第三方审查的公信力。

  其三,细化分类分级风险控制体系,提升治理实效。关于风险控制,《征求意见稿》中的复核清单虽为分类分级治理奠定了基础,但其深度与广度仍需拓展。对于具有系统性风险与公共基础设施属性的人工智能应用,在现有跟踪审查机制的基础上,还可探索引入强制性的独立第三方伦理审计制度,确保审查贯穿于实质内容而非流于形式。同时,伦理嵌入设计应被提升至更重要的位置,将伦理考量深度融入技术研发、数据处理、模型训练与产品服务的整个生命周期。为此,监管部门应提供更详尽的、具有可操作性的嵌入式伦理标准与实践指南,探索如何使审查程序更好地评估和激励伦理嵌入设计实践,以提升伦理治理效能。

  (作者单位:吉林大学法学院)