构建更加完善的人工智能安全治理体系
9月15日,《人工智能安全治理框架》2.0版(以下简称《框架》2.0版)正式发布,进一步细化人工智能安全风险类别,并从技术应对、综合治理等方面提出具体措施,为人工智能安全治理提供方向性指引。近年来,随着人工智能技术迭代升级,全球人工智能安全治理步伐逐渐加快。今年以来,我国有关人工智能安全治理的部门规章密集出台。比如,2025年6月1日正式实施的《人脸识别技术应用安全管理办法》,进一步规范人脸识别的应用场景及边界。今年9月1日正式实施的《人工智能生成合成内容标识办法》规定,服务提供者提供的生成合成服务内容均需在适当位置添加显著的提示标识。这与已经实施的《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等部门规章共同构筑了人工智能安全治理的基础性规范、专项性规范、指导性规范。
人工智能领域相关行政法规、部门规章、规范性文件的密集出台,体现了国家层面的战略思考、顶层设计和系统谋划。然而,在实践层面,人工智能依然面临数据滥用、隐私泄露、深度伪造、算法偏见、版权风险、价值失序等问题,近年来,各类侵权案件及伦理道德事件层出不穷,数据安全、意识形态风险仍面临严峻挑战。人工智能的技术特性决定了其安全治理需要多元主体协同进行,正如《框架》2.0版提出的,要建立完善技术研发机构、服务提供者、用户、政府部门、社会组织等多方参与的人工智能安全风险综合治理制度规范。人工智能安全治理是一项涉及多主体、长周期的系统工程,需要在技术逻辑、价值逻辑、目标逻辑的引领下,进一步完善人工智能安全治理体系的路径。
构建人工智能安全治理体系的逻辑
技术逻辑:从被动防御到主动构建。早期人工智能安全治理主要聚焦漏洞修补、风险应对与事后纠偏,属于被动式、反应性的技术逻辑。近年来,人工智能技术的快速演进,特别是深度学习、大模型和自主决策系统的广泛应用,使传统“打补丁式”的安全策略已难以为继,治理思维逐渐由事后补救向事前防御转变。因此,人工智能安全治理的技术逻辑正经历一场深刻的范式变革,以数据标注、算法调试、大模型预训练为代表的技术治理逻辑,使人工智能安全治理从“应对风险”转向“主动构建”。主动构建不仅仅是预防,更是从底层数据到算法模型的全过程治理,真正实现安全可构建、风险可预控、行为可追溯。
价值逻辑:从工具理性到价值理性。工具理性的核心逻辑在于效率、性能、利益最大化等。该逻辑下的“为谁服务”“价值伦理”等深层次问题容易被忽略。随着人工智能嵌入社会运行的关键领域不断拓展,人工智能不仅是技术输出,更是价值选择。因此,人工智能安全治理必须超越“技术中立”迷思,转向“以人为本、智能向善”的价值理性。人工智能安全不再仅仅是技术的稳定性与可靠性,也意味着技术行为要与社会主义核心价值观进行统一。工具理性向价值理性的转变,本质上就是从让人工智能更强大,转向让人工智能更安全、更可靠、更可控,让人工智能更好地造福社会。
目标逻辑:从单一规制到健康发展。人工智能安全治理的初期阶段,其目标设定呈现出较强的单一规制导向,忽视了其作为新型生产力引擎、社会创新载体与文明进步动力的价值。人工智能健康发展的首要逻辑是破除“安全治理”与“创新发展”的二元对立,既要明确安全底线,防范数据滥用、深度伪造、算法操控等风险,又要留出发展空间。今年5月,《国务院2025年度立法工作计划》明确了推进人工智能健康发展立法工作的目标,深刻体现了统筹发展和安全的深层战略思考。这一“健康发展”目标强调统筹兼顾,治理不是发展的障碍,而是高质量发展的制度保障,为我国人工智能安全治理提供了明确目标。
构建人工智能安全治理体系的路径
建立全过程的人工智能安全技术治理路径。人工智能安全的技术治理路径要以主动构建为核心,贯穿于数据调取、算法调适、模型训练全过程。首先,数据是基础,为生成式人工智能提供最基本的“燃料”。因此,数据安全是人工智能安全的第一道防线。数据安全的治理可以通过数据清洗、偏见标注、隐私增强技术等方式从源头有效降低风险。同时,要大力发展高质量中文数据语料库。这是推动我国人工智能健康发展、防范安全风险的重要方式。其次,算法利用多层神经网络对数据进行抓取,像大脑一样进行深度学习与训练,以提升内容生产的创新性、针对性,最终经过不断优化为用户提供更多内容输出。对算法的治理是一项系统性、多层次的工程,其起点在于将安全与伦理要求前置并嵌入技术开发流程。同时,建立算法运行中的监控系统,实时检测算法输出的公平性、一致性与异常行为,要设置预警与自动干预机制。最后,大模型预训练治理可以通过建立分级备案与安全评估制度,对大模型预训练项目实行事前申报,以明确数据来源、训练目标、算力规模、潜在风险等。
打造人机价值对齐的多元治理路径。人机价值对齐包含AI对齐人类,以创建安全、符合人类伦理的人工智能系统,以及人类对齐AI,确保人类负责任地使用AI。技术不具有价值观念,但掌握技术的人可能带有价值偏见,而人的价值偏见会通过数据、算法等方式隐秘其中,使人工智能也具备价值选择与价值偏向能力。因此,人工智能时代的“人—技”关系需要重新被审视,开发者赋予技术价值倾向的同时,技术又通过数据、算法将价值理念传递给用户。人工智能安全治理的价值路径核心在于推动“工具理性”向“价值理性”转型,确保技术发展符合“以人为本、智能向善”的根本导向。首先,在政府及法律引导下,将社会主义核心价值观有机融入人工智能治理规范,明确技术发展的伦理边界。在法律条款中规范人工智能使用中的数据语料、算法模型等关键环节,要符合社会主义核心价值观的要求,并明确切实可行的落地措施。例如,通过技术与信息分级分类、内容生成把关等制度,为人工智能技术与内容的价值选择与标准提供指引。其次,建立人机协同的价值对齐机制。在技术发展与应用中更加注重正确的价值导向,防范算法操控与自主性侵蚀。同时,通过公众参与、政府审查、社会影响评估等方式,吸纳多元主体对人工智能价值取向的反馈与监督。最后,推动企业社会责任制度化,引导研发机构与服务提供者将社会主义核心价值观嵌入产品设计与服务流程,加强人工智能伦理教育与行业自律,培育良性的人工智能健康发展生态。
探索人工智能发展与安全协同治理路径。人工智能不仅仅是一项前沿技术,更是影响一国产业经济、社会结构的强大力量,对全球人类文明及社会发展产生重要影响。近年来,我国人工智能安全治理虽然取得了显著成绩,但在全球智能化竞争格局中依然面临巨大挑战。治理不是阻碍技术的发展,而是更好地保障我国人工智能的健康发展,在全球科技竞争中确保关键技术自主可控。《框架》2.0版在治理原则中提到,鼓励发展创新,对人工智能研发及应用采取包容态度,通过在安全可控环境下试点等方式,为新技术新应用发展提供容错纠错空间。首先,人工智能安全治理过程中,既要对违反伦理道德、侵犯隐私、数据滥用等行为进行惩戒,又要以法律规范对合规企业的免责条款、容错机制进行确定,为我国人工智能技术的健康发展提供法律保障。其次,人工智能的发展与安全协同治理,不能仅靠政府或企业单方面推动,需要形成政府、企业、行业协会、公众共同参与的治理生态。最后,通过参与全球人工智能安全治理对话,建立跨国人工智能安全监管协作机制,并在此基础上进一步探索中国语境下的人工智能安全治理路径,为国际人工智能安全治理贡献中国智慧。
总而言之,要全面推进人工智能科技创新、产业发展和赋能应用,完善人工智能监管体制机制,牢牢掌握人工智能发展和治理主动权。要构建更加完善的人工智能安全治理体系。人工智能安全治理是一个持续性的动态治理过程,面对技术迭代速度加快与应用场景的不断拓展,只有与时俱进、持续优化,才能推动我国人工智能健康有序发展,在全球科技竞争中赢得主动权、占据制高点。
(作者单位:西北政法大学新闻传播学院)