“人工智能法官”的伦理思考
9月25日,国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》(以下简称《伦理规范》),明确规定了人工智能活动应当遵循的六大基本伦理规范,包括增进人类福祉、促进公平公正、保护隐私安全、确保可信可控、强化责任担当、提升伦理素养。这六大基本伦理规范主要指向人工智能可能存在的缺乏人文关怀、产生偏见歧视、侵犯隐私与个人信息权、消解人的主体地位以及难以追责等诸多伦理风险问题。这些问题在当下蓬勃发展的司法人工智能领域也不同程度存在,比如适用于审判领域中事实认定和法律适用的“人工智能法官”裁判等。笔者认为,“人工智能法官”的算法裁判要想取得主体地位,必须突破程序正义不足、缺乏人文关怀、隐私安全隐忧和可问责性难题四大伦理障碍。
程序正义不足的伦理问题。“人工智能法官”的算法裁判之所以能被有的学者支持以及司法实务接受,非常重要的一个理由或论据是“人工智能法官”所做裁判的准确率与人类裁判的准确率相当,甚至在某些对比测试中还远高于人类裁判者。但这只是看到了“人工智能法官”裁判所具有的某种程度的实体公正,却忽视了现代法治理念更重视和追求的程序公正。具体表现在三方面:一是“人工智能法官”可能存在算法歧视与偏见,这意味着其会冲击法官中立性这一程序正义的基本要素;二是“人工智能法官”的“算法黑箱”会消解司法程序的透明性、公开性;三是“人工智能法官”的算法裁判是基于以往判决的大数据分析推导案件如何判决,这虽然符合类案同判要求,但它无法对当前案件中当事人和律师辩论、辩护争议点和观点进行充分的识别、理解与回应,这使其忽视了当事人的程序参与权,裁判说理也严重不足。
缺乏人文关怀的伦理难题。作为人类社会交往过程中最重要的纠纷解决方式之一,司法审判不仅要以法律为基本依据,情和理也是重要的参考因素。裁判的效果应该是法律效果、政治效果与社会效果的统一,这不仅要求在司法裁判过程中严格适用法律,还要有情理的温度和人文的关怀。“人工智能法官”在算法裁判运作中能否考虑以及在多大程度上可以根据案件的具体情况考虑人文关怀或者释法说法?目前,已有的“人工智能法官”系统或者类人工智能法官系统还难以达到相关要求。
侵犯隐私安全的伦理隐忧。目前,“人工智能法官”裁判是以裁判文书类司法大数据的深度挖掘为基础而产生的算法系统。但这种大数据挖掘会涉及裁判文书中法官、当事人、其他诉讼参与人的隐私权与个人信息知情、同意权保护问题。比如,法国2019年颁布的《司法改革法》第33条明令禁止基于法官“画像”的大数据应用(包括比较、评估、预测)。违反者,最高将被判处5年有期徒刑及30万欧元的罚金。因此,基于裁判文书类司法大数据深度挖掘的“人工智能法官”很可能在某种程度上侵犯法官隐私权。
可问责性难题的伦理风险。众所周知,人类法官裁判案件时勤勉尽责不仅仅是职业伦理要求,也是因为有相应的司法责任制度予以规范。但若由“人工智能法官”进行实质性审判得出错误裁判结果时,该由谁来承担相应的责任?司法责任制能够对人类法官发挥作用,主要在于责任追究的“谴责”机制会给人类法官带来身体的、精神的、财产的剥夺性、限制性“痛苦”等,但这对“人工智能法官”而言毫无意义。因此,该由谁来承担“人工智能法官”裁判错误责任,值得深思。
针对前述“人工智能法官”面临的四大伦理障碍,《伦理规范》已经给出了一个制度规制的基本路径,未来应该在《伦理规范》明确的六大基本伦理规范以及相应具体规范的基础上,构建适用于法律人工智能甚至司法人工智能这一特殊领域的专门的伦理规范。此外,从类型化角度看,“人工智能法官”的四大伦理障碍又可以分别纳入到技术伦理障碍与责任伦理障碍之中,例如程序正义、人文关怀等问题指向人工智能的技术与风险问题;侵犯隐私、可问责性难题涉及的是责任伦理障碍。这或许可以分别从技术升级改造层面、责任理论与分配机制重构角度寻找突破口。
(作者单位分别为同济大学法学院、广州大学法学院)