
生成式人工智能的法律责任边界
生成式人工智能的法律责任边界
——以DeepSeek为例
党的二十大报告明确提出,“加快发展数字经济,促进数字经济和实体经济深度融合”。党的二十届三中全会通过的《中共中央关于进一步全面深化改革、推进中国式现代化的决定》指出,“完善生成式人工智能发展和管理机制。”今年初,DeepSeek横空出世,迅速引发社会广泛关注。以DeepSeek为代表的生成式人工智能作为数字经济时代的关键技术,已形成规模化应用场景,生成式人工智能的快速发展也引起了人们社会生产生活方式的深刻变革。如何在确保安全的同时促进人工智能健康发展,已成为全球人工智能发展的核心议题。2023年7月颁布的《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)方向性地划定了生成式人工智能的法律责任边界。但要实现技术创新与法律规制之间的动态平衡,确保生成式人工智能稳健前行,还需对人工智能的主体资格、产权归属、责任认定等进一步进行探索。
生成式人工智能法律责任认定面临的问题
法律地位、成果属性、可问责性是生成式人工智能立法应解决的三个关键问题。
法律主体资格争议。生成式人工智能是否享有独立法律人格?实践中,虽然“数据、算法”可纳入《中华人民共和国民法典》(以下简称《民法典》)第一百二十三条规定的知识产权客体范畴,但根据《民法典》第十三条的规定,只有自然人才享有民事主体资格,人工智能尚未被赋予独立法律人格。当前,学界认为,AI技术本质仍属工具范畴,其行为后果应归属于开发者、运营者或使用者。《暂行办法》第四条确立的“服务提供者主体责任”原则,实质上是采用“技术黑箱穿透”理论,将AI生成行为的法律效果归于人类控制者。但AI代替程序员完成代码任务时,是通过多模态逻辑架构MLA实现自动生成代码,具有系统自主性、决策不可逆性、结果不可控性,能否进行动态评估,进而认定其“自主行为”水平,确定其法律主体资格,值得探讨。
知识产权归属。生成式人工智能创作物是否构成著作权法意义上的“作品”?假设DeepSeek自动生成的科幻小说,司法机关对其属性和版权该如何认定?现行知识产权制度的根本宗旨在于保护人类智力成果。我国《民法典》明确规定其权利主体为自然人、法人及社会组织三大类。若承认人工智能的创作主体资格,不仅需要赋予其署名权、修改权等著作人身权,更涉及收益分配等财产权归属问题。在“腾讯诉盈讯科技AI生成文章著作权案”中,深圳市南山区法院首次确立人工智能生成内容独创性认定标准,确认争议文章系腾讯专业团队通过人工智能系统协作完成,符合法人作品构成要件,依法享有著作权保护,但涉及第三方数据要素时权利边界仍不清晰。在当前法律体系下,生成式人工智能创作物的知识产权认定机制需完善、权责需明晰,以合理划分开发者、使用者和算法系统间的权利义务,保障创作者利益与促进技术创新的动态平衡。
责任划分和认定困境。传统技术中立原则主张,生成式人工智能的开发者对技术开发和应用的后果不具预见义务,这导致生成式人工智能的责任边界模糊。比如,用户在使用DeepSeek时输入涉密信息引发数据泄露,是否应追究开发者的责任?2024年12月,豆包AI用户某甲发现陌生人通过豆包AI输入其姓名和学校信息,成功获取到其微信号。某甲称该微信号曾用于招募推文,但推文发布一周后即被删除,豆包仍保留并显示了该信息。此后,网友测试发现,部分用户能通过类似方式检索到身份证号、邮箱等敏感信息。而豆包官方也承认其信息整合基于互联网公开数据,联系方式等信息可通过搜索引擎获取。目前,司法机关已开始严格界定提供者的注意义务。《暂行办法》第四条、第七条规定,服务提供者承担数据来源合法性审查义务。这实质上已经突破技术中立原则的适用边界。同时,生成式人工智能技术在应用过程中可能衍生诈骗、侵犯公民个人信息等刑事犯罪,且犯罪主体呈现多元化。如果使用者恶意利用生成内容实施违法犯罪行为时,应独立承担相应责任,如利用DeepSeek生成网络攻击代码,可能构成非法侵入计算机信息系统罪。对此类犯罪治理时,应重点防范“算法黑箱”引发的证据链溯源困境。在上述豆包泄露用户信息案中,由于系统数据存储逻辑不透明,司法机关可能面临电子证据取证不完整的问题,即“算法黑箱”可加剧违法行为的隐蔽程度。比如,DeepSeek采用的专家混合MoE架构,在提升效率的同时使决策路径呈现分布式特征,当生成内容引发名誉权纠纷时,既无法直接追溯至特定训练数据,也难以界定模型架构设计缺陷与损害后果之间的因果关系。这可能给此类犯罪治理带来挑战。
生成式人工智能法律责任界定的法理基础
人工智能已渗透到人类生产生活的方方面面,并不断发展变化。2022年美国发布的ChatGPT,以数据“喂养”方式让人工智能学习语言规律,模拟人类创造性思维,生成具有逻辑性的内容。2025年杭州深度求索公司发布的DeepSeek,远超ChatGPT,通过算法创新和训练范式革新实现高效生成,为全球生成式人工智能的发展提供了新范式。DeepSeek自问世以来,已逐步渗透到各行各业,催生了全新的商业模式,拓宽了生成式人工智能的应用边界,但其法律责任问题亦随之浮现。以DeepSeek为代表的生成式人工智能与传统人工智能最大的区别在于它不局限于现有数据,可模仿甚至超越人类想象,创造出新的内容,即具备自生成模式,这在法律责任边界界定上提出了新课题。
以DeepSeek为代表的生成式人工智能,融合了算法、数据与自主学习能力,厘清其法律责任边界必须考虑技术特征与法律价值的双重维度。从技术逻辑看,其价值链涵盖数据收集、模型训练、内容生成、应用部署等复杂环节,涉及基础模型研发者、专业模型调优者、服务提供者、终端使用者等多元主体。这打破了传统法律主体与行为责任的对应关系,要求法律规制既需关注个体行为,又需应对系统性风险。从法律层面看,其责任界定也需平衡技术创新激励与风险防控的需求。因为过度严苛的责任可能抑制技术发展,而放任技术滥用又或将威胁公共利益。因此,责任边界必须遵循风险与责任相匹配原则。
生成式人工智能法律责任边界的优化路径
推动特定领域法律完善。完善知识产权领域相关法律。第一,明确创作者身份和权利归属,区别于传统人工智能,生成式人工智能具有自主创新性,程序算法与独立思维之间的界限模糊,例如用DeepSeek模仿金庸的风格,创作一篇武侠小说。因此,可以考虑对生成内容的权利归属进行明确规定。第二,增设专门知识产权仲裁机构,由专业的知识产权法官和专家组成仲裁部门,通过仲裁方式快速、高效地解决生成式人工智能创作引发的知识产权纠纷。第三,从立法上规定生成式人工智能的合同保密义务。在其开发、使用和运营过程中,涉及商业秘密的相关各方要通过合同设定保密义务,明确使用范围、保密措施和违约责任。第四,可以设立商业秘密处罚制度。对于生成式人工智能泄露商业秘密的行为,可以进行相应处罚,如惩罚性损害赔偿、行政罚款等。
设立分类责任认定规则。按照人员身份类别划分责任。第一,明确服务提供者的责任。服务提供者因对技术安全负有直接控制义务,若损害源于系统技术缺陷,就应承担产品损害赔偿责任。对于一般性技术风险,适用过错责任原则,但对医疗诊断等涉及公共安全的应用,应适用无过错责任,强制要求算法透明化及履行安全评估义务。第二,明确使用者的责任。应区分使用者的“提示引导”与“直接操控”行为。若使用者通过不当提示词诱导AI生成违法内容,应承担直接侵权责任。反之,若使用者仅利用AI辅助创作且未主动干预生成过程,则责任应限于对输出内容的合理审查义务。第三,明确平台运营者的责任。根据《民法典》第一千一百九十五条至第一千一百九十七条的规定,运营平台若未及时采取删除、断开链接等措施,需对扩大损害部分承担连带责任。建议建立分层审核机制:对于高风险内容,平台需实时监测并自动拦截。对医疗诊断、自动驾驶等直接关涉人身安全的信息,引入严格责任原则。例如,若因算法缺陷导致交通事故,研发者与生产者需承担无过错赔偿责任。对于中低风险内容,重点审查用户举报内容;对文本生成、图像创作等应用场景,以过错责任为基础,同时鼓励行业制定技术伦理准则。
推进法律规制体系的优化重构。我国虽已形成人工智能基础性法律架构,但当前分散式监管体系难以有效应对生成式人工智能技术的挑战。受限于《中华人民共和国数据安全法》关于数据共享的约束性规定,跨部门协作效能尚未完全激活,网信、工信、公安等部门的职能衔接机制有待健全。首先,应构建多元主体协同治理机制。政府需完善数据安全、隐私保护等配套法规,行业组织应制定技术伦理准则,公众参与监督算法决策,形成“政府主导、市场自律、社会监督”的共治格局。其次,应确立人工智能法作为数字经济时代的纲领性法律,统合各方治理共识,为特定领域细则制定及未来制度创新预留接口,实现通用规则与特殊规范、现实需求与长远发展、国内规制与国际接轨等多重治理。最后,构建风险协同治理机制。设立跨领域伦理监督委员会,确立研发环节的伦理前置审查制度,积极参与全球人工智能标准制定,增强我国在国际规则制定中的制度性话语权。
(作者系西北政法大学博士研究生、陕西省人民检察院高级检察官)