人机共生:政务智能体部署的基本逻辑

  作为现代国家推进国家治理不可或缺的治理工具之一,技术要素内嵌于国家治理结构,可以通过数字技术等提升政务服务、完善治理结构、提高治理能力。近期,中央网信办、国家发展改革委联合印发的《政务领域人工智能大模型部署应用指引》(以下简称《指引》)提出,“政务部门应结合工作实际和场景特点,充分论证人工智能大模型的应用需求、实施路径、功能设计等,选择适宜的部署模式,统筹推进实施,推动共建共享,提升建设管理效能”,并“鼓励探索政务智能体、具身智能等创新应用”。在此背景下,有必要从理论上厘清政务领域智能体的复杂性与特殊性,并探讨实践中如何构建人机互动和谐、人机权责清晰的政务智能体服务形态。


  政务智能体的拟人化特征:从工具到协作者

  政务智能体,是指在政府服务和治理领域中,应用诸如大语言模型等生成式人工智能(AI)构建的能够模拟人类认知和行为的智能化应用。一般情况下,它能理解复杂的政务指令,调用相关信息和工具,与外部系统互动,自主完成信息查询、政策解读、自动填表、辅助决策等一系列任务。与传统的行政自动化工具不同,政务智能体往往被设计为人格化角色,以实现智能体与人之间的情感交互。例如,广东省深圳市福田区赋予“数智员工”唯一的身份编号、姓名,具备人格化特性、情感智能、文化适应性等一系列人格化特征。其交互界面能够模拟人类的情感表达。此类技术设计已超越单纯的工具范畴,而是着眼于政务智能体的协作主体定位,以促使政务服务工具由被动应答走向有温度的情感服务。

  当然,这种拟人化并不意味着赋予智能体真正的主体地位。政务智能体之所以呈现拟人化特征,在于算法、算力、大数据所构建的“感知—认知—行动”模型;算法模型相当于政务智能体的“大脑”,负责理解用户意图、进行推理并生成回应;算力类似人的注意力或者“精力”,保障智能体在复杂任务中的持续运行能力与相应速度;大数据抓取,则如同智能体的感知器官,为其提供决策所必要的信息。换句话说,政务智能体的拟人化本质上是技术架构对人类认知模式的模拟,是技术的延伸形态。这意味着现阶段政务智能体仍受到技术局限,可能出现知识幻觉、事实偏差等问题,因而需予以标注以提示民众模型可能存在的幻觉风险。因此,《指引》要求,“应在政务大模型应用界面显著位置设置风险提示,明确告知大模型服务的局限性,做好大模型输出内容标识”。概言之,政务智能体的拟人化本质是一种“有限拟真”,部署目标是为了建构辅助人类的协作者,提升政务服务的效率与温度,而非替代人类决策。


  具体场景中的人机协同:效率与温度的平衡

  人机协同在具体场景中首先体现为政务智能体与人类的动态分工。《指引》提出了政务服务、社会治理、机关办公、辅助决策四类共计十三种应用场景,聚焦政务领域共性、高频需求。从《指引》列举的应用场景来看,政务智能体主要承担事务性、重复性、规则相对明确的任务,诸如表单预填、智能问答、资料搜索等,进而提高政务办理效率,解放更宝贵的人力资源以处理更复杂或创新性更强的事务。例如,在司法裁判场景中,“司法文书生成助手”“语音转化助手”等政务智能体能够显著降低语音记录和文书撰写时间,进而释放司法审判人员的工作时间,使其专注于更专业、责任更重的事实认定与法律适用问题。这一分工模式结合人、机不同的优势,形成了“机器提效、人类负责”的人机协同机制。又例如,在应急处置场景中,智能体能够提供实时态势分析和救援方案推演,极大程度提升了决策的科学性,而人类则需要基于经验与理性,结合智能体所提供的辅助信息作出最终的决策判断。在这一场景中,智能体所提供的是人类相对弱势的风险模拟与预测能力,而人类则发挥价值判断与统筹全局能力,二者由此可以实现理性与伦理的人机协同。

  人机协同的另一内涵在于人机之间的双向学习、共同提高。智能体所依托的算法模型并非一成不变,而是通过持续的数据学习和人类反馈不断优化迭代。《指引》要求,建立高效数据收集处理机制,及时更新支撑人工智能大模型运行的输入数据和知识库,并适时进行清洗、标注,补充优化训练数据集,持续提升模型能力。建立政务领域人工智能大模型用户评价反馈机制,及时收集、处理用户需求,以用户反馈驱动迭代优化。人类公务人员在使用政务智能体的过程中不能置身事外,而是应当关注智能体的输出质量和合理性,及时主动反馈问题并修正偏差,实现“人在回路中”的闭环优化。与之相对的是,人类公务人员也可以借助政务智能体进行法规检索、政策解读,提升对各类规范性文件的理解和业务处理能力,实现技术赋能下的能力跃升。

  需要指出的是,人机协同并非万能,无法通用所有政务服务场景。我国仍存在相当数量的数字弱势群体,其在面对智能化服务时可能面临操作障碍和数字接收困难。因此,必须保留传统的服务渠道并确保线下服务窗口、电话咨询等渠道畅通,切实保障数字弱势群体的合法权益与基本需求。此外,政务服务也具有情感反馈的内在要求。公众在寻求政务服务过程中,可能伴随着焦虑、困惑甚至不满的情绪,而现阶段技术条件下的政务智能体无法提供有效的情绪回应,难以替代人类在共情沟通方面的作用。


  人机共生的权责边界:数据安全与决策责任的双重保障

  政务智能体不同于一般领域的人工智能应用,其一般涉及大量的个人数据和政府信息,具有相当程度的数据敏感性和隐私保护要求,且在价值伦理上对公平正义存在更高追求。这决定了政务智能体的设计与部署必须建构完善的信息保护机制与权责划分体系,以确保数据安全与决策责任的有效落实。

  形成人机共生的理想状态,首先需要平衡数据保护和算法透明。政府部门部署政务智能体一般需要与算法模型相关企业合作,而算法企业的算法设计和数据训练,会显著影响政务智能体的决策偏好和价值立场。因此,政府部门必须建立算法审查与备案机制,对核心参数、训练数据来源及模型逻辑进行合法性审查;引导政务智能体在输出最终答案前,先逐步展示其推理过程和中间步骤,使其思考过程透明化,确保算法运行的透明性与可解释性,防止“黑箱”决策。同时,在应用政务智能体过程中须遵循数据保护原则。为确保敏感数据不外泄,各政府部门宜优先采用本地部署模式,将数据交互过程控制在本地完成;云上数据应严格遵循数据分类制度,防止国家秘密、工作秘密和敏感信息等输入非涉密人工智能大模型,防范敏感数据汇聚、关联引发的泄密风险。此外,应禁止政务智能体储存敏感信息,保留智能体信息访问记录以便追溯数据调用路径,防范信息泄露风险。

  在决策责任层面,必须明确人类始终是最终责任主体。一方面,要建立负面清单,禁止政务智能体在涉及重大公共利益、生命财产安全及法律裁决等关键领域独立作出决策,坚持将政务智能体定位为辅助者角色;另一方面,要探索建立“责任监护人”制度,以“谁部署,谁负责”作为政务智能体的追责原则,明确各政务部门作为责任主体,对政务智能体的运行结果承担最终责任。政务智能体所作出的可能影响公民利益的决策建议须经人类审核确认后方可生效。同时,应建立全周期审计机制,对政务智能体的输入输出、决策依据及操作日志进行动态记录与定期核查。当政务智能体输出显著违反常识、法规的结果时,系统应自动触发预警并交由人工介入审查,各政务部门的责任主体应会同算法设计者排查问题缘由,及时更新清洗训练数据库并修正算法模型,确保政务智能体持续符合公共价值导向。总而言之,政务智能体全周期部署都不能脱离人的监督与主导。在政务智能体部署前,对智能体所依托的算法模型要进行合法性审查,确保其设计符合公共利益与法律法规要求;部署中,要严格落实数据本地化处理与负面清单管控,明确政务智能体可使用的数据与可运行的领域;部署后期,要持续开展动态审计与风险预警,确保智能体输出内容始终受控于人类价值框架。

  数字时代政府的数字化转型不可逆转,对于人工智能技术的使用将会成为提升政府治理能力的关键支点。政务智能体的部署只是数字政府建设的一个缩影,其所坚持的人机共生逻辑本质上是对技术理性与人权价值的平衡。《指引》为我国政务领域人工智能大模型的部署提供制度性指引,为各地政府部门推进智能化治理划定了清晰边界。无论采用何种技术路径或治理模式,都应确保技术为民、人主机辅,始终将人的判断置于决策核心,将人的利益作为政务数字化转型的根本价值目标。唯有如此,技术才能真正嵌入政府治理的“回路之中”,而不失其温度。

  (作者单位:中共江苏省委党校)