提升政务领域人工智能安全风险应对能力
开栏语:近日,中央网信办、国家发展改革委联合印发《政务领域人工智能大模型部署应用指引》,从应用场景、规范部署、运行管理等方面,为各级政务部门提供人工智能大模型部署应用的工作导向和基本参照,进一步安全稳妥有序推进政务领域人工智能大模型部署应用。本报开设“人工智能与法治·政务”专栏,邀请专家学者对相关问题进行探讨。
2025年8月,国务院印发的《关于深入实施“人工智能+”行动的意见》提出,“安全稳妥有序推进人工智能在政务领域应用,打造精准识别需求、主动规划服务、全程智能办理的政务服务新模式”。2025年,政府工作报告明确提出,持续推进“人工智能+”行动,将数字技术与制造优势、市场优势更好结合起来,支持大模型广泛应用。
随着以DeepSeek为代表的人工智能大模型的迅速普及,其在政务部门的广泛部署应用,对推动数字政府的高效运行和公共服务创新具有重要驱动作用。这引发了政府决策、管理和服务方式的深层次变革。然而,人工智能大模型的应用也带来了数据安全、模型“幻觉”及算法规制等一系列新挑战。在此背景下,中央网信办、国家发展改革委联合印发《政务领域人工智能大模型部署应用指引》(以下简称《指引》)明确提出,政务部门应建立安全责任制度,明确数据处理、大模型训练和场景应用各阶段参与主体的安全职责和任务,做好用户身份识别和权限管理。这为政务领域人工智能大模型的安全风险应对提供明确的工作指引。
规范运行前部署,筑牢安全发展根基
习近平总书记强调,要把握人工智能发展趋势和规律,加紧制定完善相关法律法规、政策制度、应用规范、伦理准则,构建技术监测、风险预警、应急响应体系,确保人工智能安全、可靠、可控。政务领域部署人工智能大模型是推动人工智能赋能数字政府建设的关键环节。政务大模型的部署及其数据的收集、处理,直接关系到数据安全与技术安全,甚至是构建国家安全体系的重要内容之一。
统筹推进各地政务大模型建设。政务大模型广泛应用于政府决策、政务服务等关键领域,直接关联公共利益,其部署过程必须从严把控。统筹推进政务大模型的选型与部署,可有效避免因地方财政差异等因素,导致各地建设步调失衡与管理失范,从而削弱跨部门的安全风险协同应对能力。《指引》明确指出,“实施集中统一的安全管理和体系化技术防护措施,避免‘碎片化’安全风险。”通过统筹集约开展大模型部署应用,构建统一完善的大模型基础设施安全防护体系,将安全属性嵌入模型底层,可为安全防护协同机制的落地提供有力支撑,切实增强安全风险协同应对能力。
深化政务大模型数据分类分级治理。训练数据是大模型产出内容的源头,海量训练数据的处理是大模型开发和运行的基础。政务大模型作为重要数据的核心汇集载体,其数据安全直接关系国家安全与公共安全。然而,政务大模型在应用中可能难以准确识别国家秘密、商业秘密、敏感个人信息等关键数据类型,进而引发数据不当收集、泄露或非法处理等安全风险。对此,应建立并落实数据分级分类清单制度,结合分层数据架构设计,从源头强化政务大模型数据治理。即落实《指引》要求的“防止国家秘密、工作秘密和敏感信息等输入非涉密人工智能大模型”,为后续数据的规范流动与安全处理奠定制度基础。
深入开展大模型安全评估。《指引》围绕政务大模型部署应用监测评估体系作出系统化规定,明确要求“上线前对模型算法、生成内容、应用功能、配置环境、挂接数据、漏洞风险等进行充分测试验证,对发现的问题隐患进行整改加固”。作为构建大模型安全生态的关键环节,全面、可靠且科学的安全评估,能够在模型运行前有效提升应对可预测风险的能力,及时弥补系统缺陷,强化整体防护水平,从而构建起“评估—防护”一体化的政务大模型安全保障体系。
完善全链条管控,坚守安全运行底线
政务大模型作为生成式人工智能在政务领域的核心应用,依托强大的数据处理、智能分析与逻辑推理能力,已成为提升政府治理效能的关键工具。为确保其安全可靠运行,须在模型正式投入应用后,实施全链条闭环管控,全面防范因内部技术缺陷与外部环境变化所引发的各类安全风险。
夯实内控,加强内容安全审核与监管。所谓模型“幻觉”,是指人工智能大模型在具备较强情境化思维链逻辑推理能力的同时,可能生成劣质、虚假乃至违法的内容。这一现象已从单纯的算法缺陷演变为系统性安全威胁。在人工智能大模型运行中,“幻觉”是难以完全规避的内生性安全隐患。在政务领域,其可能诱发社会对立、误导公众等严重问题,亟须建立能及时发现、快速管控的应对机制。对此,《指引》提出人工审核、生成内容实时风控、多模型交叉校验等措施,着力防范模型“幻觉”。这充分体现安全与效率并重的治理理念,通过多维协同的应对手段,确保人工智能大模型生成内容的合法性、安全性与真实性,为政务大模型的稳定运行筑牢安全屏障。
织密外防,聚焦风险对抗与信息共享。《指引》要求,“做好政务大模型对抗攻击的检测与处置,识别并拦截提示词注入、资源消耗攻击等。”大模型因开放性与可扩展性特征,在训练、推理过程中面临外部安全威胁的风险较高。政务大模型承载大量国家秘密、商业秘密等高敏感信息,面对复杂多变的外部攻击,必须实施全面覆盖与重点强化相结合的防护策略。《指引》立足这一现实需求,专门规定了安全风险威胁信息共享机制与保密管理制度,旨在推动政务部门构建协同联动的风险应对机制,并在重点涉密领域加强保密防护,系统提升整体抗攻击能力。该制度为政务大模型应对外部安全威胁提供具体操作指引,是落实统一安全管理方针的重要实践路径。
强化主体担当,扎紧安全责任红线
针对政务大模型所面临的安全挑战,不仅需要持续加强技术手段以提升风险应对能力,更需进一步明确政务部门在风险预防、应急处置等环节中的责任担当,构建全方位的安全保障体系。为此,《指引》以提升政务部门风险应对能力为导向,从实践层面提出了切实可行的具体要求。
完善应急处置机制。在网络时代,安全风险事件的危害极易呈指数级扩散。在此背景下,完善政务部门针对大模型突发性风险的应急处置机制至关重要。该机制能有效控制事件引发的严重社会危害,为维护国家安全、公共安全与社会秩序提供重要保障。对此,《指引》明确要求建立安全风险处置与报告制度,通过制度规范提升风险处置效能,切实防止危险范围进一步蔓延。这一制度充分表明,政务部门面对安全风险必须主动担当、积极作为,坚持以高效、科学、合理的方式优先解决安全问题。
强化人员技术能力培训。《指引》提出,“开发涵盖人工智能大模型理论、技术、应用、安全、伦理、产业等内容的培训课程体系,开展人工智能素养和技能培训,提升领导干部对人工智能的认知水平,增强工作人员应用能力和水平。”强化业务学习与技术培训的价值,在于不仅能进一步加强政务部门安全供给人工智能服务的能力,落实政务领域人工智能大模型“辅助型”功能定位,更能帮助工作人员提升风险应对素养,提高对新型风险的识别敏锐度与应对能力,为政务大模型的安全合规应用提供坚实的人才支撑。
明晰相关主体安全职责。《指引》作为政务领域大模型应用专项的政策文件,在规范层面明确了政务部门安全责任制度,强调区分各阶段参与主体的责任。其中,针对数据处理、大模型训练、场景应用各关键阶段细化责任划分,本质上是结合政务大模型应用全流程设计的溯源性追责机制,为查清直接责任、重要领导责任提供清晰路径。该规定旨在提前防范政务大模型应用中可能出现的责任虚化、相互推诿等问题,体现了“技术发展,治理先行”的理念,为政务大模型安全应用筑牢责任防线。
发展和安全是一体之两翼、驱动之双轮,二者相辅相成、相互支撑。在数字经济高速发展的当下,提升政务领域人工智能安全风险应对能力,既是数字中国建设的核心命题,也是技术创新行稳致远的前提。《指引》的出台,将推动政务大模型实现“部署完备、处置有序、责任明晰”的全流程规范管理,不仅能精准填补政务大模型安全管理领域的关键空白,更能进一步释放政务数据价值、提升政务服务效率,助力政府治理数字化、智能化水平迈上新台阶,最终做到以高质量发展促进高水平安全,以高水平安全保障高质量发展,为数字中国建设筑牢安全根基。
(作者单位:西南政法大学行政法学院)

