生成式人工智能幻觉的法律风险与治理路径

  生成式人工智能在输出内容时,可能出现偏离客观事实、捏造信息乃至逻辑不通的现象,此即“生成式人工智能幻觉”。这种幻觉以一种看似权威、流畅的语言形式呈现,实则具有高度的迷惑性,其潜在的风险也由此日益产生。近年来,随着生成式人工智能技术快速融入人们生产生活,生成式人工智能幻觉内容已不再是单纯的技术瑕疵。当其关涉个人声誉、市场秩序乃至公共安全时,则可能直接触发侵权、不正当竞争、危害公共安全等一系列法律后果。因此,亟须构建一套与技术发展相适应的法律规制框架,保障数字社会安全与秩序。


  生成式人工智能幻觉法律风险的类型化分析

  近年来,一些实际案例显示,生成式人工智能幻觉的法律风险已从理论预警演变为现实威胁,其具体可作如下分类。

  一是侵犯人格权益的法律风险。生成式人工智能幻觉引发的人格权风险,根源在于技术缺陷导致的客观事实扭曲。首先,幻觉内容可能侵犯名誉权。生成式人工智能模型容易因信息处理偏差,生成关于个人的负面不实描述,如将其与失信或不法行为相关联。这种由机器生成的“事实性错误”,因其呈现方式看似中立,极易误导第三方,从而可能导致个人社会评价降低。其次,幻觉内容可能侵犯隐私权。生成式人工智能模型容易在无事实依据下,“推断”并生成涉及个人健康、行踪的虚假信息,这种技术失灵可能造成对个人私密空间的非自愿曝光。

  二是扰乱市场秩序的法律风险。在商业宣传层面,生成式人工智能可能因数据偏差或逻辑推断错误,在生成产品介绍或用户评价时,自动添加并非事实的正面功能描述,或生成不存在的溢美之词。这种行为虽非商家本意,但客观上构成虚假或引人误解的商业宣传,可能误导消费者的购买决策。在市场竞争层面,生成式人工智能幻觉现象也可能无意中损害特定企业的商誉。例如,生成式人工智能在整合分析网络信息时,可能错误地将一家企业的名称与另一家企业的负面事件(如产品召回、法律诉讼)相关联,并生成看似合理的分析报告。这种客观错误信息的传播,同样构成对商业信誉的损害。

  三是妨害社会管理秩序的法律风险。首先,生成式人工智能幻觉现象可能在客观上动摇社会共识。大模型在处理海量信息并生成相关叙事时,可能因数据关联错误或逻辑推断偏差,无意中“创造”出关于公共卫生事件、重大灾害的不实情节。这些看似可信的虚假叙事一旦传播开来,即使并非出于任何人的主观意图,也会引发社会恐慌,客观上造成扰乱公共秩序的后果。其次,幻觉内容可能在无意间触及历史叙事红线。例如,模型可能在学习了不全面或有偏见的历史文献后,生成历史虚无主义的错误观点,或对特定群体带有歧视意味的描述。这种技术性错误同样可能在公共领域引发争议、激化矛盾,对主流价值观和社会稳定造成冲击。


  生成式人工智能幻觉法律风险治理面临的问题

  实践中,生成式人工智能幻觉在法律风险治理中面临多重挑战,主要涉及责任认定、技术缺陷和监管机制等问题。

  一是责任主体认定困难。当生成式人工智能幻觉内容造成损害时,确定责任主体变得异常困难。一项生成服务的背后通常涉及数据提供、算法设计、模型训练、服务提供及最终用户等多个参与方。根据《中华人民共和国民法典》第一千一百六十五条的规定,行为人因过错侵害他人民事权益造成损害的,应当承担侵权责任。但在生成式人工智能幻觉场景下,清晰证明某个特定主体的“过错”及其行为与损害结果间的因果关系极为不易。例如,一段诽谤性内容,其根源是训练数据的偏见还是算法的概率性缺陷?服务提供者应在何种程度上负责?现行侵权责任法规则在面对这种多方参与、技术“黑箱”、因果模糊时,其归责原则显得力不从心。

  二是传统监管模式失灵。既有的信息内容监管大多建立在“事后处置”逻辑之上。例如,《网络信息内容生态治理规定》侧重于平台对违法信息的发现与处置义务。这种模式难以应对生成式人工智能幻觉的挑战。生成式人工智能幻觉内容的生成具有即时性和海量性特征,可能远超人工审核极限,且其传播具有病毒式扩散特点,损害后果往往在监管介入前就已发生且难以逆转。更关键的是,传统监管主要针对明确的人为虚假信息,而生成式人工智能幻觉内容的“虚假性”需与事实比对才能发现,这大大增加了监管机构的识别成本与执法难度。

  三是司法证明标准缺失。在诉讼中,生成式人工智能幻觉的受害人面临着极高的证明门槛。首先是因果关系的证明。由于模型内部运作的不透明性,要从技术上论证一个特定输出是必然结果而非偶然,几乎不可能。其次是主观过错的证明。对于算法,如何适用“主观过错”这一概念,法学界与司法实践均未形成共识。虽然我国民法典第一千一百九十五条规定了网络服务提供者的“通知—删除”规则,但这主要适用于用户发布的侵权信息,对于平台自身模型产生的幻觉内容是否当然适用,以及如何认定其“知道或应当知道”,均缺乏明确的司法解释与裁判标准。

  四是单一治理手段局限。当前,应对技术风险的思路,仍倾向于依赖法律的“硬性规制”。然而,对于生成式人工智能幻觉这种内生于技术复杂性的现象,单一法律手段显得尤为局限。其幻觉的根源深植于深度学习模型的技术范式,无法通过法律条文简单“禁止”其发生。尽管如《互联网信息服务深度合成管理规定》已要求对生成内容进行标识,但这更多是技术性规范,难以触及幻觉的根本成因。若法律规制过于严苛,可能抑制技术创新;若规制过于宽松,则无法有效保护公众权益。此外,生成式人工智能的应用场景风险等级迥异,“一刀切”的规制方式则无法实现精准应对。


  生成式人工智能幻觉法律风险的治理路径

  AI幻觉与AI技术发展相伴而生,随着科技的高速发展,生成式人工智能幻觉也给人们带来诸多困扰,具体可尝试从以下几个方面规制生成式人工智能幻觉:

  一是明确多元主体的责任链条。为了解决责任主体认定困难问题,需要构建清晰的责任分配框架。为有效界定民法典第一千一百六十五条规定的“过错”,应根据各方主体的控制能力与注意义务划分责任。应针对开发者与训练者,确立其源头性注意义务;针对服务提供者,强化其信息内容管理者地位,要求其进行安全评估,建立风险监测与内容标识机制;针对专业领域使用者,明确其对生成内容负有审慎核实的义务。由此,形成一个从源头到终端的责任链条,使各环节参与主体承担与其角色相匹配的法律责任。

  二是实施分级分类的场景化治理。改变传统“一刀切”监管模式,引入风险分级分类的场景化治理理念。监管机构应根据生成式人工智能服务的应用场景与潜在风险,设定具有差异化的监管方式。对社交娱乐等低风险场景,可侧重于内容标识与用户提示。对医疗诊断、金融投资等高风险领域,则必须设置更严格的准入标准与事前评估义务,要求服务提供者证明其模型的可靠性,并强制其进行人工复核。

  三是构建“技管结合”的司法应对体系。针对民法典第一千一百九十五条规定的“通知—删除”规则的适用问题,应在实体法层面,考虑针对高风险应用场景引入举证责任倒置。当用户能初步证明其损害由幻觉内容引发时,应由服务提供者承担证明其模型无缺陷或已尽高度注意义务的责任,以平衡双方的举证能力与诉讼地位。在程序法层面,应探索建立“技术事实查明”机制。法院可引入技术调查官或委托权威机构进行技术鉴定,为法官判断因果关系与服务提供者是否“知道或应当知道”提供专业意见,为形成相关裁判标准积累实践基础。

  四是推动技术与法律的“技制”共治。一方面,应为生成式人工智能技术设定明确的合规目标与路径。通过立法或设置国家强制性标准,明确要求将幻觉检测、内容溯源、显著标识等安全保障功能,作为人工智能模型与服务的“出厂标配”,成为其内生性的一部分,从源头上引导技术朝着负责任创新方向发展。另一方面,利用技术手段增强法律实施的效能。这包括激励研发并应用自动化合规检测工具,帮助监管机构与企业高效评估模型是否符合法律规定。通过技术赋能,其监督能力与裁判精准度将得到提升,从而构筑起一道由代码与规则共同编织的、应对幻觉风险的严密防线。

  当前,生成式人工智能的广泛应用为社会发展注入强大动能,也引发了幻觉带来的法律风险及其规制困境。因此,要构建以责任链条、场景化治理、“技管结合”与“技制”共治为核心的规制路径。人工智能相关立法应积极回应技术迭代的特殊需要,聚焦技术与法律的协同治理,积极参与人工智能风险防范的国际对话与规则协调,为全球人工智能法治发展贡献中国智慧。

  本文为贵州省社会科学院人才引进科研启动项目“贵州省人工智能产业高质量发展的激励制度研究”(项目编号:GCRC2512)的阶段性研究成果。

  (作者单位:贵州省社会科学院法律研究所)