余凌云、刘东亮、胡敏洁、张凌寒、马颜昕:关于如何认识和应对自动化行政的法治挑战的讨论

  编者按  
  2021年4月,广东省佛山市广台高速一岔道口“天量”罚单引发热议,有车友查询交通违法时发现62万余人在此处违章。“电子警察”被指有逐利执法之嫌,一时引起热议。伴随着人工智能、大数据、物联网等现代新兴技术的发展,行政执法手段越发数字化,行政方式的自动化水平得到显著提高。自动化行政,顾名思义,是指行政程序中特定环节或所有环节由人工智能代为处理,而无需人工的个别介入,从而实现部分或全部无人化的行政活动。自动化行政在提高行政效率的同时,也面临相对人的程序性权利难以得到有效保障的困境,对行政法治提出挑战。近期,学者们围绕如何认识和应对自动化行政的法治挑战展开激烈讨论,其中既有学者们的普遍共识,也存在着理念与具体路径选择上的差异。本文选取了余凌云、刘东亮、胡敏洁、张凌寒、马颜昕等五位学者近期的研究成果,撷英拾萃,以展现该领域的学术争鸣。
  
  
  余凌云
  清华大学法学院教授、博士生导师,兼任中国法学会行政法学研究会副会长。出版《行政自由裁量论》《行政法上合法预期之保护》《行政法讲义》《警察法讲义》《行政法案例分析和研究方法》等多部专著。在《中国社会科学》《中国法学》《法学研究》等刊物上发表论文百余篇。
  
  刘东亮
  西安交大法学院教授、博士生导师,人工智能与信息安全法律研究中心主任。出版《行政诉讼目的研究:立法目的和诉讼制度的耦合与差异》《行政诉讼程序的改革与完善:行政行为司法审查标准问题研究》等多部专著。在《中国法学》《法学研究》《比较法研究》等刊物上发表论文多篇。
  
  胡敏洁
  浙江大学光华法学院教授、博士生导师。出版《福利权研究》(独著)《何谓法律——最高法院中的宪法》(译著)等多部著作。在《中国法学》《清华法学》《法律科学》等刊物上发表论文多篇。
  
  张凌寒
  北京科技大学文法学院副教授。出版《权力之治:人工智能时代的算法规制》等专著,在《法律科学》《法商研究》《东方法学》《华东政法大学学报》等刊物上发表论文多篇。
  
  马颜昕
  华南师范大学法学院特聘副研究员、数字政府与数字经济法治研究中心主任。出版国内首部数字政府法学著作《数字政府:变革与法治》,在《现代法学》《政治与法律》《行政法学研究》等刊物上发表论文多篇。
  
问题一:处罚概率提升后需要降低相应的处罚力度吗?
  
  余凌云:对同一种违法行为分别规定不同处罚并不合理
  这种要求立法考虑自动化行政与人力执法在发现违法上的效率差异,对同一种违法行为分别规定不同处罚的理论见解,并不合理。
  首先,在立法过程中,针对违法行为设计相应的惩处方式,是以社会危害程度为考量,以合乎比例为尺度,力求违法程度与处罚力度相匹配,以实现过罚相当。设定行政处罚必须以事实为依据,“与违法行为的事实、性质、情节以及社会危害程度相当”,一般不特别考虑违法的发现率。如果针对同一个违法行为,在自动化行政中降低处罚,就等于认为自动化行政中违法形态的社会危害性低于其在传统执法中的社会危害性。
  其次,无论传统执法还是自动化行政,对同一违法行为坚持适用同一处罚尺度,更容易抑制违法。因为在自动化行政的情境中,驾驶人知道其驾驶过程处在技术设备的监控之下,不敢心存侥幸。
  其实,公众之所以对自动化行政处罚颇有微词,是因为自动化行政处罚缺少裁量环节,机器只会冷冰冰地记录,传递不出“首违不罚”、从轻减轻处罚考量的温度。也因为系统无法及时告知违法事实,当事人不能通过及时改正避免被罚,这在实质上拉低了对相对人权利的程序保护水准。
  因应策略,除了通过技术更新实现实时告知外,还可包括:(1)监控技术设备的设置、相关场域的交通标志设计应当合理规范,以提升相对人对通行规则的认同。(2)监控技术设备要锁定公众关切的“热点”,找到当前道路交通的“痛点”,主要抓拍公众不满的违法行为,如引发拥堵的任意“加塞”、占据直行道等待转弯等。(3)对于不影响交通安全、不会造成事故隐患、不引发交通拥堵的违法行为,原则上不纳入监控技术设备的规制范围,或者通过技术系统进一步更新,实行“首违不罚”或者依法从轻减轻处罚。
  
  马颜昕:需要建立行政处罚标准动态调整机制
  在传统行政处罚的静态标准之下,被处罚概率这一因素并未被纳入处罚程度的考量。当技术手段极大地提高了被处罚概率时,行政机关能做的也仅仅是在不大的裁量范围内进行平衡,而这对于自动化行政方式下被处罚概率动辄数十倍甚至上百倍的提高来说是远远不够的。静态标准的不足也不仅限于自动化行政领域。
  行政处罚实践中经常出现的另一个问题是:作为处罚依据的法律法规规定了具体的处罚额度,但是由于经济发展、通货膨胀、地区发展不均衡等原因,许多原有额度已经明显过低,无法起到足够的惩罚效果。想要调整处罚额度,就必须通过法律法规修订来完成,但这样必然要面对修法的周期与成本,甚至可能法律刚刚修订就已经滞后。这反映了静态标准的本质缺陷,即静态的标准无法适应日新月异的动态社会。
  为了解决这些问题,应该建立行政处罚标准的动态调节机制。法律法规在设定行政处罚额度时,不必再局限于条件、行为、情节、结果等固定指标,还应该加入处罚概率、经济发展情况等可变指标,从而使得行政主体在进行法律适用时,可以根据当时的情况进行裁量。
  需要注意的是,从理论上讲,这并未增加行政主体的裁量空间,只是将其限定因素从固定指标变成了可变指标,而这些可变指标在每个特定时间是可以根据一定计算方式确定的。换言之,关于可变指标本身,行政机关的裁量权并没有增加。从实践上看,这种可变指标的确定过程的确可能给了行政机关一定“活动”的空间。为了防止这种情况的出现,必要时可以通过裁量基准来对可变指标进行确定,然后定期对裁量基准进行更新。裁量基准的修订成本要远低于法律修改,从而可以实现行政处罚灵活性与确定性的平衡。
  
问题二:自动化行政对裁量有何影响?
  
  刘东亮:自动化行政导致限缩裁量或放弃裁量
  近年来,各国均大力发展电子政务,积极推进数字政府建设,广泛借助自动化决策系统作出行政决定,除了提高效率的考量之外,希望排除行政过程中的恣意是一个重要因素。的确,自动化决策在很多领域胜过人类裁量。在需要前后一致超过裁量价值的情形下,实施良好的自动化决策比人类裁量更为可取;在与人类偏见有关的风险超过自动化偏见导致的风险之领域,自动化决策也更有吸引力。
  简言之,当某一问题不需要根据特定情况进行裁量时,自动化决策具有人类决策无法比拟的优势。然而,凡事皆有两面性,自动化决策的长处同时也是其短处。由于算法的确定性特征,在编程中不允许存在二义性,自动化决策系统难以像人类一样针对具体情境选择最适当的决定。这种在设计算法时就不得不限缩裁量甚至放弃裁量的做法,如果按照传统行政法学理论予以判断,明显属于“裁量怠惰”。
  
  胡敏洁:自动化行政缩减裁量空间
  依靠指令,这种裁量成为机械化的规则制定,裁量中须考量的相关因素可以通过系统事先的设定输入,不需要考量的相关因素则事先被剔除。机器将计算出数以百万计连接的微指令,这些指令可以实现法律规范的策略目标。这个复杂的微指令目录可以针对行为的小实例应用于更大的行为动作网络,实现更广泛的目标。当然,法哲学家对此颇有争议,因为在他们看起来法律必然是模糊和不确定的,法律推理过程需要理解和支持类比推理的原则。再比如,法律往往要求实现公平,那这种公平可以被量化吗?
  首先,公平是一个模糊的概念,法律上的公平被翻译成算法公平可能存在困难;其次,公平被量化、被算法化可能带来歧视问题。美国联邦贸易委员会发布的《大数据:包容性工具抑或排斥性工具?》报告,特别关注大数据中的歧视和偏见问题:数据集是否具有代表性?所使用的数据模型是否会导致偏见?基于大数据进行预测的准确性如何?对大数据的依赖是否会导致道德或者公平性问题?这些问题往往都伴随着缩减裁量而产生。
  尽管我们一直为滥用裁量权所困,但基于行政的效率考量以及个案决定要求,它的存在却是必要的。当我们从一个需要个性化判断的行政决定走向规程化的程序中,社会的整体利益、人性情感、地方习俗等因素都可能被忽略。
  
问题三:自动化对行政程序带来哪些挑战?
  
  余凌云:技术赋能对非现场执法程序提出挑战 
  行政正当程序在规范行政权力运行、保障相对人权利等方面的作用,任何行政机关作出影响行政相对人权益的行政行为时必须遵循法定且正当的行政程序,交警非现场执法也不例外。科技辅助、人工决定仍然是当前交警非现场执法的主要特征。
  但不可否认,大数据分析、人脸识别、智能预审等新技术应用,已经嵌入调查取证、违法信息通知、罚款缴纳、文书送达等执法程序中。只不过这些技术在助益执法效能提升的同时,也确实给非现场执法程序带来了挑战。具体而言,主要包括三个方面:
  第一,行政相对人陈述、申辩易被压缩。交警在利用“行人闯红灯”抓拍装置收集违法行为人的违法事实后,理应听取违法行为人的陈述、申辩,现在却直接省略该环节,将违法行为人的违法事实与相关信息实时同步曝光,违法行为人的陈述、申辩则被压缩,行政正当程序遭到架空。
  第二,证据认定流于形式。从执法实践来看,交警在大多数情况下,仅依靠交通技术监控设备或执法设备所记录的图片或视频就实施处罚,尽管这些图片或视频应当满足《道路交通安全违法行为处理程序规定》《道路交通安全违法行为图像取证技术规范》等技术标准,但能否查证属实、做到证据确实充分,值得推敲。在交警非现场执法过程中,交通技术监控记录资料本应当是交警继续调查取证的“开始”,然而在“人工智能预审系统”“自动化辅助决策系统”的帮助下,调查取证环节更多成为人工对图片或视频简单判断的流水线作业。执法人员常年执法积累的取证经验并无用武之地,甚至其判断还会被技术潜移默化地影响,认为技术是正确的,致使证据认定流于形式。
  第三,行政机关说明理由面临变动。在非现场执法的后续处罚程序中,执法人员应当向相对人说明处罚的理由,尤其在相对人认为监控设备故障时。只不过以往面对质疑,基于调查职权主义的立场,公安机关一般会给出以下三点理由:(1)监控设备符合国家标准或行业标准;(2)监控设备经国家有关部门认定、检定合格,且被用于执法时处于有效期内;(3)图像符合《道路交通安全违法行为图像取证技术规范》的要求。
  在司法实践中,如果相对人没有足以推翻的证据,法院一般尊重公安机关的判断进而认定监控设备运转正常、记录真实。然而,在人脸、声呐等依托数据和算法深度分析的识别技术被用于辅助调查的情况下,上述理由的说服性则大大降低。因为这种识别技术不仅会受到数据完整性和真实性限制,还会受到算法设计、运行与环境的制约。也就是说,无论哪项影响因素发生变化,都可能对识别结果产生影响。那么此时,公安机关如若不能对技术辅助推理的过程说明理由,仍单纯地举证监控设备检定合格且符合国家标准,很显然是苍白无力的。而且算法运行看似客观,其背后却隐藏着难以为外界知晓的数据处理过程,无论是相对人还是公安机关,目前能做到的只是“知其然”,对技术如何得到结论的过程难以“知其所以然”,由此形成了所谓的“算法黑箱”,这无疑又给公安机关的说明理由出了一道难题。
  
  胡敏洁:自动化行政缩减了行政行为的程序环节
  在“田志鹏诉陕西省西安市公安局站前分局行政处罚纠纷案”中,田志鹏认为,在交警大厅处理违章时,行政主体没有出具简易程序《处罚决定书》,违反了道路交通安全法的程序规定。法院在审判中认为,田志鹏的违法行为事实清楚,被告适用简易程序符合规定,至于未出具《处罚决定书》,那是因为自助缴纳系统本身可以自行打印且被告在处理大厅公示了违法处理流程,张贴有《法律文书补打流程告知》以及相关操作说明;田志鹏可依据操作说明在处理大厅自助系统打印出《处罚决定书》,但原告未按照上述告知内容打印,因而其主张被告没有明示自助缴费,不向其出具《处罚决定书》等意见,法院不予采纳,其诉讼请求被驳回。
  该案从形式上来看,程序被缩减,但实质上转移为另一种形式,即自助打印,而此时原告已缴纳罚款,可视为自行放弃了相应权利。但这里自然提出相关问题:是不是自动化行政所依赖的程序都是简易程序?或者可以缺省必要的程序?此时是否可以将行政主体的义务转化为行政相对人的权利?自动化执法系统会威胁程序性权利,即相对人被通知和进行申辩的机会。为救济相对人的合法权益,任何自动化执法系统都应该有大量的失效保护、冗余备份及相关机制,以确保完成适当的通知且个人可以有效地对自动出具的惩戒提出上诉。
  
  刘东亮:自动化决策的瞬时性危及程序保障
  一般来说,计算机程序是由成千上百万条命令行组成的,这些命令行可以输出数亿条指示,最终的输出结果瞬间即告完成。自动化决策的时间往往以毫秒计,这也正是自动化决策的优势之所在。算法的价值全部体现在它的速度上。如果算法不能在毫秒或者微秒级内完成复杂任务,就不能称之为革新的力量。一个能给出正确输出但耗时很长的算法几乎没什么价值。算法设计的精妙之处,即在于如何多快好省地完成预定任务。说到底,智能既是一种实现复杂目标的能力,同时也是一种时间性能力。如果任务时间无限,即使是滴水也能穿石;要想办法用工具迅速穿石,这才称得上是智能。
  自动化决策在带来便利和高效的同时,也引发了权利保障问题。智能机器中的算法有无错误?是否存在隐而不彰的歧视和偏见?有没有因算法放弃裁量而导致行政决定不合理?如果存在这些问题,当事人如何寻求救济?尤为重要的是,为保障当事人实体权利的实现并具有其自身内在价值的诸多程序保障如何通过算法设计得以体现?传统的正当程序在新技术条件下究竟还有没有可适用的空间?总之,自动化对行政程序提出一系列挑战。
  
  张凌寒:算法自动化决策与行政正当程序制度产生冲突
  从信息论的角度看,行政正当程序本质是行政机关向行政相对人发送信息的工具。无论是行政活动前的行政公开、听证,行政活动中的通知、听取陈述与申辩以及事后的说明理由,目的都是在行政机关与行政相对人之间建立信息沟通机制。行政正当程序的信息发送功能由于算法自动化决策阻碍无法实现。无论是反应型算法压缩行政程序各个环节造成行政正当程序的缺省,还是预测型算法直接作为内部决策规避行政正当程序,最终均导致行政相对人无法接收到行政机关通过行政正当程序发送的信息。具体而言,尤其以行政公开原则、公众参与原则与说明理由规则为甚。
  第一,算法不透明遮蔽行政公开原则。算法的采购、设计与运行,甚至算法的存在本身,政府基于各种考虑可公开而不愿公开。私营公司主张公开算法侵害商业秘密,政府官员可能会担心公开披露的算法会被篡改或规避,阻碍行政目的实现。同时,“算法黑箱”造成的公开不能。“算法黑箱”是指在算法决策数据输入、计算和输出的三个环节中,分别面临着三个难题:数据收集由于公共利益豁免知情同意规则而不透明、算法决策过程由于商业秘密保护而不公开、数据分析结果与决策之间转换不公布。
  第二,技术垄断架空公众参与原则。行政正当程序中的公众参与原则极为重要,“某种形式的听证”被认为是程序正当性过程最基本的要求,是行政机关提供正当程序的最低限度。然而,算法自动化决策系统由私营公司“技术垄断”,公众的参与权难以得到保障。
  第三,“算法黑箱”无法提供理由说明。正当程序中的说明理由制度是指公权力机关在作出决定或者裁决时,应向其他利害关系人说明法律依据和事实状态,及通过相关法律和事实状态进行推理或裁量而作出结论的过程,从而表明理由与最终该决定的内在联系。尤其是行政机关作出不利于行政相对人的行政行为时,除非有法定保密的要求,都必须说明理由。然而,预测型算法作出行政决策的时点是在行政对象作出行为之前,依据是大数据的相关关系而非因果关系,因此无法提供理由说明。
  
问题四:面对自动化行政瑕疵如何救济?
  
  刘东亮:以技术性正当程序规制算法权力
  2007年,时任马里兰大学法学教授的希特伦提出了“技术性正当程序”的概念,强调通过优化计算机程序设计提高自动化决策系统的透明性和可问责性。此前,德国著名行政法学家毛雷尔教授在1999年就已经提出,必须从法治国家的角度认识和规范“专门的技术程序”。申言之,再复杂、高深的技术程序也不允许从法治国家的规范中逃逸,否则就会形成法治国家的“虫洞”,最终造成法治国只剩下一个“合法性的空壳”。
  排除偏见,确保算法的公开、透明和程序一致性。排除算法歧视的技术,需要借助于算法的公开、透明,同时确保程序的一致性。
  第二,说明理由,提高算法的可解释性。算法的解释方法因算法模型的不同而有较大差异。影响算法可解释性的关键因素,除了算法的透明度(白箱模型或黑箱模型),还有算法结构的复杂度。在具体的解释方法上,需要根据具体情况灵活运用或者综合运用预建模的解释和建模后的解释、全局解释与局部解释等方法。同时,提供审计跟踪记录以保证算法的可解释性。
  第三,听取意见,包括允许质疑、事后听证、专业审计以及及时纠错。其一,对自动化决策应当允许提出质疑和挑战。其二,自动化决策的适用场景只能采取事后听证。这也意味着:自动化决策不能完全免除听证,但听证的形式可以变通。其三,在专业审计人员的协助下审查算法并及时纠错。
  
  马颜昕:完善自动化行政正当程序与归责原则
  技术的发展带来治理模式的转变,自动化行政方式下的行政处罚制度发展也出现了一定的变化性与不确定性。为了在这样的变化中保护相对人的基本权利,需要构建一定的程序底线,不管技术如何变化,相对人可以通过程序的保护来获得应有的公正。在自动化行政时代,正当程序原则还将继续发挥重要作用。
  第一,提高透明度与可解释性。自动化行政处罚中如果在程序、证据等方式中,使用了包含人工智能算法等在内的新技术,当这种新技术对相对人权益产生重大影响时,应当对这种技术影响处罚决定的方式做出解释,或者说,应当至少保有解释的能力。第二,确保技术运用中的形式公平。在行政处罚这样的负担行为中应当建立起一系列程序公平的具体要求,从而使得新技术平等地适用于每一个体以及程序的设计不会特别地不利于特定的人。第三,评估与认证。可以通过专业机构与专业人士对技术手段予以测试,交流和发布可能存在的风险,满足正当程序的需求,同时提高公众的可接受度。
  另外,在现阶段的行政处罚中,自动化系统出现错误所导致的责任形式还难以以“人的行为”作为类比,而更多地接近于“物的瑕疵”。自动化行政处罚的赔偿责任中采用无过错责任原则更为恰当。不过也应当注意到,自动化系统错误所导致的行政赔偿责任与一般的物之责任还是存在明显不同的。比如按照我国现行法,公共设施致害的“物的瑕疵”责任不纳入国家赔偿的范围,是按照民事程序处理的。这对于行政处罚错误的责任和救济来说是明显不合适的。随着技术的不断发展,这两种责任之间的不同还将愈发明显。因此,从长远来看,将自动化系统错误导致的责任予以单独类型化,确定专门的责任构成要件,是一种更为可取的路径。
  
  张凌寒:调和算法自动化决策与行政正当程序制度之间的冲突
  第一,基于行政信息公开原则增强算法自动化决策透明度。现有算法自动化参与的行政活动中,我国法律作出了一定调整,但仍在某些领域需要行政信息公开规则的回归。首先,应增强算法自动化决策的可见性,作为行政信息公开的基本要求。其次,算法作出决策的基本规则和因素权重,应该对公众与社会公开。具体包括行政信息公开原则在算法数据收集环节的贯彻、行政信息公开原则与保护算法商业秘密的衡平以及行政信息公开与算法决策输出的说明等三个方面。
  第二,基于公众参与原则进行算法影响评估。行政正当程序中的公众参与原则具有重要的实体权利保障功能,应从加强公众参与与恢复相对人陈述和申辩权利两个方面,发展算法治理时代的行政正当程序。具体包括以算法影响评估保证公众参与算法系统订购与使用、将通知与申辩环节作为算法决策生效必经程序等两个方面。
  第三,基于说明理由规则创设算法解释权。由于数据来源的不透明、“算法黑箱”等因素,算法自动化决策的结果是如何得出的却难以为个体所知晓。算法治理时代应在适用算法自动化决策时坚持并修正行政行为说明理由的制度。具体包括发展算法解释权说明具体行政行为的理由、行政行为算法解释的内容和标准以及解释语言清晰平实以书面形式作出等三个方面。
  
  胡敏洁:程序、申诉、复议与诉讼并举
  第一,从广义的角度来看,行政程序也是救济路径之一,如告知、听证等。对于处罚数额不大、情节认定较容易的违法情形,自动化执法完全可以引入,同时为了保障相对人的程序性权利,减少或避免后续出现的救济等问题,应要求当事人知情、确认并认可,而不能单纯依赖自动化执法机器,不然很容易使相对人陷于“无知之幕”的恐慌之中。告知环节本身也应依行政程序法的要求,行政机关应采取短信、网络等电子化方式辅之以书面告知等形式。此外,还有一点需要强调,即依赖自动化行政所作出的决定,在技术手段上需要确保行政相对人,即指令施加对象的可识别性。在多数情况下,自动化行政更适宜于可采用简易程序的场合,实际上也就排除了听证会的适用问题。如果自动化行政在获取信息的后续过程中,出现了诸如隐私权的侵扰等问题,也就依然需要程序上的保障,尤其是正当程序的保障。技术性正当程序要求告知、听证等必要的程序适用,尤其当自动化行政决定涉及公民的人身权、自由权时;同时还须在技术上采用无歧视的数据挖掘技术,避免个人被歧视;此外,还要求行政机关作出一定的理由说明。
  第二,在特定的情形之下,作为传统的救济方式——申诉,仍存在适用的必要性。然而,基于自动化行政的特征,我们需要对现有的申诉、信访制度进行一定程度上的改革以适应信息时代。例如,设立机器智能委员会等专业委员会来辨别判定一些涉及自动化行政的专业性问题。再如,欧洲议会法律事务委员会主张建立欧洲机器人和人工智能机构;还有些学者主张建立跨国的、独立的、多利益相关的人工智能和数据委员会。他们认为,人工智能不仅仅是一个公用事业,一旦成熟就需要被监管,它更是重塑生活、互动和环境的强大力量,是人类栖息地向信息圈深刻转变的一个部分。人工智能专业委员会不应仅仅是行政机关的智囊团,也应当为行政机关和普通公民之间搭建桥梁,对于自动化行政决策发挥说明、阐释作用。在处置申诉、信访过程中可以借鉴这种专业委员会的设置目标,即加入专业性的考量因素,借助第三方委托、协助等方式,更好地提升申诉、信访处置的水平以及行政机关处理自动化行政所涉问题的能力。如健康码实施至今,各地都有设立复核制度,通过网络化的复核实则也是信息化时代的一种申诉方式。下一步,司法实践领域可借鉴英国法的经验,设立数据保护专员为数据控制者提供数据方面的建议,处理申诉。
  第三,针对瑕疵指令所导致的不同后果,行政程序、行政活动抑或事实行为更易在复议和诉讼环节发挥作用。总体上,更多情况下,数据来源的瑕疵在自动化行政决定中更容易构成复议和诉讼中的证据来源。算法瑕疵在理论上是有可能构成复议、诉讼的直接审查对象的,也就是说,伴随着法院审查算法能力的加强,未来也应具备审查算法的能力。系统瑕疵,则更多被归入事实行为,即使因此产生了对相对人权利义务的影响,也有复议、诉讼的可能性。在现有的法律体系下,审查对象实际上依然只是依据自动化行政所作出的相应的决定,而非自动化行政本身。在复议和诉讼环节,涉及自动化行政的案件需考量几点:首先,从系统的设定、算法的设计等方面来看,自动化行政在当下更多地发挥了“辅助”和“助手”的功能,即便在直接作出决定的情形中也是如此。因此,在绝大多数情形下,相应责任也应归由行政机关及其工作人员承担,除非有相反证据可以排除其责任。其次,举证责任的分配或者相关问题的解释,都应本着有利于行政相对人的角度来进行。随着自动化行政的发展,更需要加强对事前、事中的控制,司法机关作为最后的救济主体,在未来会面临着更多算法审查的挑战。
  
  〔文献来源〕
  余凌云:《交警非现场执法的规范构建》,载《法学研究》2021年第3期。
  谢明睿、余凌云:《技术赋能交警非现场执法对行政程序的挑战及完善》,载《法学杂志》2021年第3期。
  刘东亮:《技术性正当程序:人工智能时代程序法和算法的双重变奏》,载《比较法研究》2020第5期。
  胡敏洁:《自动化行政的法律控制》,载《行政法学研究》2019年第2期。
  胡敏洁:《论自动化行政中的瑕疵指令及其救济》,载《北京行政学院学报》2021年第4期。
  张凌寒:《算法自动化决策与行政正当程序制度的冲突与调和》,载《东方法学》2020年第6期。
  马颜昕:《自动化行政的分级与法律控制变革》,载《行政法学研究》2019年第1期。
  马颜昕:《自动化行政方式下的行政处罚:挑战与回应》,载《政治与法律》2020年第4期。 

  ● 责任编辑:宋韬


  (本文在自媒体平台由民主与法制周刊官方微信公众号首发,其他自媒体平台未经同意转发,视为侵权)