人工智能立法的基本定位与主要内容探析
目前,我国已形成多层级、地域化、领域化、立体化的人工智能治理框架,为制定专门的人工智能法提供了有益探索和宝贵经验,应以“促进产业稳健发展”“规范技术有序治理”为导向,精准立法。
今年5月公布的《全国人大常委会2025年度立法工作计划》将“人工智能健康发展等方面的立法项目”纳入预备审议项目。这是人工智能立法继2024年以来再次列入全国人大常委会年度立法工作计划。今年3月,全国人民代表大会常务委员会工作报告明确指出,2025年将“围绕人工智能、数字经济、大数据、自动驾驶、低空经济、航天等新兴领域加强立法研究”。
近年来,一些西方国家和地区加快人工智能立法。从趋势上看,人工智能立法实践逐步从原则性约束的“软法”转向监管性的“硬法”;从路径上看,分别形成了以美国为代表的分散化、市场化规制路径及以欧盟为代表的人工智能统一规制路径。目前,我国与人工智能相关的地方性法规、行政法规、部门规章、行业标准、国家战略和产业政策已形成多层级、地域化、领域化、立体化的治理框架,为制定专门的人工智能法提供了有益探索和宝贵经验。当下,应以“促进产业稳健发展”“规范技术有序治理”为导向,精准立法,推动我国人工智能产业高质量发展。
兼顾发展与安全的基本定位
坚持发展创新与安全治理,明确立法基调和方向。首先,人工智能立法应被定位为“人工智能时代的基本法”,采取“总则式”思路明确基本原则和框架,坚持促进发展创新与安全治理并重,平衡产业促进与安全监管之间的关系,推动人工智能技术稳健发展。其次,确立风险分级监管理念,借鉴域外立法与实践经验,区分禁止类、高度危险、有限危险和低度危险等人工智能活动并实施差异化监管,实现敏捷治理和灵活监管。最后,明确域外效力规定。借鉴国家安全法、数据安全法、个人信息保护法等法律关于效力范围的规定,对影响我国主权、安全与发展利益的境外人工智能活动保留管辖权。
健全人工智能安全制度,明确风险分级监管体系。首先,坚持总体国家安全观,建立健全人工智能安全治理体系。提高人工智能安全保障能力,组织制定并适时修订人工智能安全相关标准,禁止使用敏感个人数据训练。强化数据标注审查、生成合成内容标识、用户数字素养提升等事前事中事后全链条治理。鼓励支持相关企业采用数字水印、区块链溯源等技术手段,有效解决人工智能大模型深度伪造、违法有害信息等问题。其次,实施分类分级监管。按照风险等级进行差别规制,禁止实时生物识别、社会评分系统等人工智能研发的部署,对医疗健康、执法司法、关键基础设施等高风险类人工智能的研发部署采取相应措施,并进行动态调整,鼓励低风险类人工智能的发展。最后,采取专章形式规定算法治理。完善算法备案、风险评估和定期审计制度,增强算法透明性要求。建立算法影响评估机制,防止形成算法共谋、算法歧视、算法垄断等问题。
细化伦理审查规则,构建人工智能责任体系。其一,明确人工智能立法的基本原则,纳入透明可解释、公平非歧视、确保人类主体地位等基本内容。要求高风险系统提供技术文档和使用说明,避免算法偏见。保障数字弱势群体权益,确保人类始终处于决策“环内”,明确人工介入、接管的适用条件和责任规则。其二,突出人工智能“以人为本”的伦理底色,要求为未成年人、老年人和残障人士等弱势群体设计专用功能模块。在科技立法框架内,明确伦理审查的主体和流程。其三,明确人工智能责任归责原则体系。根据人工智能产品和服务的基本种类、技术流程和风险等级等因素进行场景化分类,适用不同的归责原则。在移除阶段或低风险场景适用过错责任,在训练阶段或有限风险场景适用过错推定责任,在生成阶段、产品构成类人工智能或自动驾驶高风险场景适用严格责任。其四,明确人工智能侵权责任主体。人工智能产品责任应由产品生产者、销售者承担无过错责任(使用者承担过错责任),人工智能服务者依法承担信息处理者责任,履行数据安全和个人信息保护义务。在多数侵权主体情形下,数据提供者、算法设计者、使用者等按数据投喂、算法设计等“贡献”灵活分配责任。同时,扩展人工智能责任范围。传统的人身伤害、财产损失、人格权侵害等损害依照民法典等规定赔偿,对于人工智能的侵权、系统性风险或算法歧视等间接损害,立法应明确新型损害类型、事前救济措施与公益诉讼规则。其五,增加人工智能责任承担形式。在行为责任上,增加模型优化与停止侵害、消除危险作为移除阶段的必要措施;在财产责任上,对于高风险场景恶意侵权适用惩罚性赔偿,并设立赔偿基金、强制保险先行赔付来分散人工智能致害风险。
确立以支持和促进产业发展为基础的规则
明确人工智能生成内容权属,健全训练数据使用制度。一方面,总结既有司法实践做法,简单的提示词输入仅具有引导性,不能体现为复杂的智力劳动与创造性思维的完整过程,应当被界定为“创作指导行为”而非“创作行为”。但是,对于通过对正反向提示词的设计和参数的设置、不断调整和修改输入及反复进行审美判断后生成的人工智能内容应赋予著作权保护,并鼓励开发者通过合同约定权利归属。另一方面,重视实践导向型规制思路,反对简单赋予人工智能法律主体地位,采取人工智能生成内容“标注+例外”的制度设计,避免他人误用人工智能生成内容,保障原创者权益。同时,通过非表达性使用、法定许可或重新定义复制概念等方式为人工智能训练数据合法使用提供依据,防止过度限制数据流通,在侵权责任认定与数据生态维护之间实现平衡。
采取专章规定激励机制,夯实产业发展支持制度基础。首先,借鉴数据安全法、个人信息保护法等法律的立法经验,明确国家支持人工智能发展的具体制度,主要包括实施人工智能战略、提升公共服务智能化水平、开发和利用人工智能安全技术研究、推进人工智能技术和安全标准体系建设、促进人工智能安全检测和认证等服务发展、建立健全人工智能监管制度、支持人工智能教育培训和人才培养等。其次,强化人工智能发展底座设施。鼓励绿色算力发展,支持国产芯片突破,建立算力资源共享平台,明确算力资源公平分配原则。最后,促进数据标注与流通,培育专业数据标注企业,制定行业标准,推动公共数据开放,建立数据交易市场。此外,采取容错免责、税收优惠等激励机制,建立“沙盒监管”制度,允许企业试错。
关联立法之间的协调与衔接
实现与网络安全法、数据安全法、个人信息保护法等关联立法进行协调、衔接。其一,明确人工智能立法的核心范畴,聚焦人工智能技术全生命周期的特殊风险,涵盖算法透明性、伦理规范、应用场景限制及责任分配机制,整合《网络数据安全管理条例》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能管理暂行办法》《人工智能生成合成内容标识办法》等相关行政法规、部门规章、强制性国家标准的规定,与关联立法形成协调配合格局。其二,确立分层监管机制协同与职责划分,在基础层沿用网络安全法、数据安全法的通用规则,在应用层由人工智能立法补充人工智能生成内容标识等专项监管要求,明确网信、工信、科技等部门的职责边界及人工智能与数据、网络安全等交叉问题的审查与处理规则。其三,注意人工智能训练数据使用规则和其他关联法律法规的衔接。在数据安全法的“数据安全评估”和个人信息保护法的“知情-同意”框架下,细化人工智能训练数据的获取和使用规范,允许符合匿名化、去标识化要求的数据用于模型开发;针对涉及社会公共利益的人工智能科研活动,在人工智能立法中设置数据共享的例外条款,与个人信息保护法第十三条中的“法定职责履行”情形进行衔接。其四,明确规定风险分级与动态适配。将人工智能系统风险等级与关联法律体系对应,要求金融征信等高风险人工智能系统需同时满足数据安全法中“重要数据”保护要求,推荐低风险人工智能系统优先适用个人信息保护法的个人信息权益保障条款。设置动态更新机制,建立人工智能技术风险清单与网络安全法安全等级保护制度的联动修订程序。其五,明确责任竞合处理规则与新型救济渠道。明确在人工智能研发、部署、使用等活动违反不同法律时,优先适用人工智能法。此外,增设算法合规审计、算法事前影响评估、大模型出口管制等制度,与关联立法中相关机制形成闭环,实现功能协调和互补。
(作者单位:中国人民公安大学法学院、数据法学研究院)