生成式人工智能侵权责任注意义务的差异化适用

  “如果内容有误,我愿意赔偿十万。”AI作出如此承诺。针对国内首例因“AI幻觉”引发的侵权案,杭州互联网法院作出了驳回诉讼请求的判决。该判决明确生成式人工智能场景中,AI的承诺不构成平台的意思表示,同时为AI生成内容划出红线与底线,厘清服务提供者的注意义务边界。伴随着生成式人工智能技术的广泛应用,其服务场景已涵盖从通用信息查询到专业服务支持、从成年用户到未成年群体的多元领域。
  我国现行法律对AI幻觉侵权责任的归责原则未作明确规定,学术界存在过错责任说、过错推定说、无过错责任说及区分说等观点。考虑到AI本身具有一定的自主性、模型幻觉难以完全消除,由此导致服务提供者对生成内容的预见与控制能力有限。过错责任既能通过注意义务划定行为底线,又可为技术创新预留空间,避免过度苛责影响产业创新与发展。在不同应用场景下AI的风险特征、用户预期及损害后果之间也存在显著差异,如果采取单一化的注意义务标准,可能对弱势群体合法权益的保护不足,并可能阻碍技术创新发展。因此,人工智能侵权责任的认定需要根据服务类型与用户主体的差异性进行精细化区分,建立更为精准的责任认定规范体系。
  
  有偿与无偿服务注意义务的
  梯度划分
  
  在生成式人工智能领域,注意义务的配置应结合对价关系和具体风险情境加以区分。有偿服务与无偿服务的差异体现在是否存在对价关系。付费用户对服务质量具有合理期待,服务提供者需承担更高程度的注意义务;无偿服务中用户并未以对价换取特定质量保证,法律更应强调基本合规与风险防控。
  有偿生成式AI服务的专业标准义务体系。首先,在有偿生成式AI服务中,信息核验机制应结合具体服务内容加以强化。对于法律条文引用、医疗建议、教育咨询等专业场景,生成结果应能够说明信息来源,并经过必要的核查程序,包括但不限于对接权威数据库实施实时检索、建立专业领域专项审核流程、运用多模型交叉验证等技术手段。如果服务本身具有明确的专业指向,却未对接公开权威数据或进行基本核实,仅以功能性免责声明加以提示,通常难以认定其已尽合理注意义务。其次,强化重大利益场景的警示说明义务。当涉及升学报考、投资决策、疾病判断等可能影响重大利益的事项时,针对具体内容提供个性化风险警示,明确标注“信息需经专业人士核实后方可采信”的提示信息,并设置便捷的信息来源查询通道。风险提示的充分与否,可以作为判断是否履行注意义务的重要因素。最后,完善错误纠正与责任追溯机制。在生成内容出现错误时,服务提供者仍负有合理的纠正与回应义务,要建立明确的用户反馈渠道,在合理期限内核查并更正错误信息。同时,保存必要的训练数据、算法参数、交互日志等内容,有助于发生争议时还原事实经过,从而为解决纠纷提供责任认定依据。
  无偿生成式AI服务的合规性底线要求。无偿AI服务主要通过广告收益、用户数据价值挖掘等间接方式实现商业目的。基于对价平衡,用户对其输出内容的准确性预期应当保持合理限度。此类服务应当定位为信息获取的辅助工具而非决策依据,但其注意义务标准仍需坚守不违反法律禁止性规定的底线。首先,严格履行违法有害信息禁止义务。该要求构成有偿与无偿服务的共同法律底线,无论是否收取费用,服务提供者均须采取有效技术措施防范生成暴力、恐怖、色情、虚假宣传等法律明令禁止的内容。其次,履行基础性功能提示义务。应当在用户交互界面的显著位置,以清晰易懂的方式标注类似“AI生成内容可能存在错误,请谨慎参考”提示信息。最后,维持合理的技术优化义务。采用行业通用基础技术措施提升内容准确性,如常规检索增强生成技术、关键词过滤机制等,作为核验服务提供者“是否尽到合理注意义务”的参考因素。
  
  未成年用户注意义务的
  差异化设置
  
  未成年人认知能力尚未成熟,风险判断和自我保护意识也相对不足,在使用生成式AI服务时,更容易受到错误信息的影响,或对生成内容过度信赖。除信息误导外,人工智能在持续交互和情绪回应方面的特点,也可能在一定程度上强化心理依赖。因此,面向未成年人的AI服务,不宜按照一般注意义务标准加以评价,而有必要在内容筛查、风险提示及干预机制等方面作出更为审慎的安排。这种强化保护的取向既体现了“儿童利益最大化”的一贯立场,也符合技术风险预防优先的治理思路。
  未成年人使用AI服务的特殊风险。其一,未成年人易将AI拟人化并产生过度信赖与情感依赖。据调查,6~12岁儿童日均使用电子设备达3.2小时,而与父母的深度交流时间仅有15分钟。陪伴资源长期缺位,技术产品正逐步承担起情绪回应与心理安慰的替代角色,而人工智能在语言模拟、情绪识别与主动交互方面的持续优化,也进一步叠加产生新的影响。其二,人工智能与泛娱乐化动向相互交织,对未成年人的独立思考和信息筛选能力产生复杂影响。算法推荐机制具有回声室效应,网民在进行互动时倾向于选择自我认同或产生愉悦感的信息。未成年人价值观与行为模式尚未成熟,缺乏足够的信息鉴别能力,既易受敏感内容诱导,又难以识别“幻觉”内容的误差。
  国际实践表明,AI服务对未成年人造成损害的案件已引发广泛关注。以美国加州Raine v. OpenAI案为例,ChatGPT向16岁青少年Adam Raine提供了药物过量、窒息、悬挂等自杀方法的技术参数,指导其实施酒精辅助自杀操作,协助优化绞索装置并验证承重能力,甚至主动提出草拟遗书及规避家人发现的方案。技术分析显示,Open AI为抢占市场先机,将GPT-4o大语言模型的安全测试周期压缩至一周,无视安全团队警告及未成年人保护风险,其监测系统虽以99.8%的准确率识别出377条自残相关信息,但基于商业利益考量并未启动对话终止、监护人通知等防护机制,且安全测试采用单一提示模式未能有效防控多轮对话场景风险。该案充分显现了未成年人特殊注意义务履行边界与商业利益优先导向下,服务提供商的安全责任缺失问题。
  面向未成年人的特殊注意义务配置。无论有偿或无偿服务,面向未成年人的生成式AI服务提供者均应强化注意义务。首先,建立严格的年龄验证与访问控制机制。采用身份证实名认证、监护人授权确认、人脸识别等技术手段确保年龄核验有效性。同时,应设置家长监护功能,对于涉及暴力、自杀、性教育等风险话题的服务需要取得监护人书面同意,健全记录查询、使用时长限制及敏感内容屏蔽等措施。其次,实施敏感话题的精准过滤与主动干预。当检测到未成年人提及自杀、自残、校园欺凌、暴力行为等高危话题和敏感内容时,立即终止服务,避免生成可能诱发危险行为的内容,一并启动保护性引导机制,包括推送心理危机干预热线、提示联系监护人等必要的干预手段。最后,完善危机响应与反馈机制。建立未成年人风险强制报告制度与快速响应通道,当系统识别用户存在自杀倾向、遭受侵害等紧急风险时,应当及时向监护人发送预警信息,并根据情况向未成年人保护机构或公安机关报告;服务提供者需对相关违规行为及已采取的措施进行完整记录与证据保存,形成可追溯的证据链,并依法在规定时限内向主管机关履行事件报告义务,确保风险得到及时有效回应与处置。
  
  注意义务差异化的
  制度价值与实施路径
  
  生成式人工智能侵权责任中注意义务的差异化配置,是平衡权益保护与技术创新的关键抓手,具有鲜明的制度价值。对有偿服务设定高标准义务,可契合用户支付对价后的合理质量预期,倒逼服务提供者提升服务精准度,推动AI服务市场规范化、高质量发展;对无偿服务适用宽松义务标准,可避免过度苛责,保障AI技术的普及应用与中小从业者的发展空间;对未成年人设置特殊保护义务,可针对性防范未成年人面临的心理诱导、不良信息侵害等特殊风险,为弱势群体提供充分的权益保障。
  遵循场景优先与动态调整两项核心原则。一是场景优先原则。结合AI服务的类型和领域、用户群体,制定AI服务风险分类目录,划分不同的风险等级。在如医疗诊断、法律诉讼辅助、未成年人心理咨询等高风险服务场景时需适用更为严格的注意义务。风险等级的划定明确以行业协会主导评估、监管部门审核确认的模式,同时跟踪重点专业领域建设情况,实现风险程度与义务标准的精准匹配。二是动态调整原则。行业组织应发挥桥梁纽带作用,结合技术发展水平、司法实践案例、用户投诉数据建立常态化标准更新机制,组织行业专家对风险分类目录、义务标准进行及时修订。此外,网信、工信、市场监督等行业主管部门应当逐步探索行业白名单制度,对严格履行注意义务、无重大侵权纠纷的企业予以名录公示,对未达标准的企业实行限期整改、约谈警示。
  健全多元主体协同治理体系。生成式人工智能侵权行为的预防与治理,不能仅关注服务提供者的注意义务,更应当结合人工智能系统形成与运行的全过程加以考察。在训练数据提供者、算法开发者、集成应用方以及最终用户之间,有必要对责任范围作出相对清晰的划分。一是训练数据提供者对数据来源的合法性与真实性负有合理审查义务。若因提供侵权或明显失实的数据而直接导致生成内容出现错误,其应当与服务提供者承担连带责任。二是算法开发者需要履行算法透明度义务,对潜在高风险应用场景进行必要评估,并保存相关测试与评估记录,在发生争议时能够说明开发过程是否符合通用技术规范。三是集成应用方在将模型嵌入具体业务场景时,应结合实际用途对输出结果进行适度核验,尤其是在专业性较强或可能影响重大利益的领域,确保人工智能技术的应用符合规范要求。此外,应对训练数据提供者、算法开发者、集成应用方建立容错纠错机制。对于因技术迭代试错导致的轻微违规,给予整改缓冲期,避免“一刀切”监管抑制创新活力。最后,在用户自身需履行合理核实义务的前提下,应充分认识到AI生成内容存在的不确定性,避免盲目依赖。
  推动法律义务向技术标准转化。具体而言,可以衔接《生成式人工智能服务管理暂行办法》等规范构建合规路径。一是推动建立AI服务分类分级管理制度,由行业协会牵头,结合风险分类目录制定不同类别、等级AI服务的注意义务技术标准,明确信息验证、风险提示、数据留存等义务的具体技术要求;二是强化合规认证,将注意义务履行情况纳入AI服务合规认证范围,未通过认证的服务不得上线运营;三是搭建技术合规共享平台,整合权威数据库对接、敏感内容过滤、年龄验证等共性技术方案,降低中小服务提供者的合规成本,推动全行业追求合规优先、风险可控的发展生态。此外,在完善国内规范体系的同时,关注国际规则的发展动向,参与相关讨论与合作机制,通过制度对话与标准衔接,降低跨境合规成本,提升我国人工智能治理规则的外部协调性。
  综上所述,生成式人工智能侵权责任不宜适用单一标准,有必要通过有偿与无偿服务的梯度化义务配置、成年人与未成年人的差异化保护机制,为不同应用场景下的用户提供与其风险承受能力相匹配的权益保障。在此框架下,既可明确服务提供者在不同场景中的行为边界,也能实现技术创新活力与用户权益保护的良性动态平衡。
  〔王杏飞系厦门大学法学院副院长、教授,杨昕光系厦门大学法学院硕士研究生。本文系国家社科基金项目“司法解释权的监督制约体系研究”(23BFX022)的阶段性成果。〕
  ● 责任编辑:张怡静