人工智能意识形态风险的法律边界重构

  意识形态工作是党的一项极端重要的工作。习近平总书记指出:“能否做好意识形态工作,事关党的前途命运,事关国家长治久安,事关民族凝聚力和向心力。”做好意识形态工作事关党的前途命运、国家长治久安、民族凝聚力和向心力。目前,随着生成式人工智能技术的快速发展,网络已是当前意识形态斗争的最前沿。如何掌控网络空间意识形态的主导权?要正视差距、加倍努力,全面推进人工智能科技创新、产业发展和赋能应用,完善人工智能监管体制机制,牢牢掌握人工智能发展和治理主动权。


  人工智能引发意识形态风险的底层逻辑

  人工智能意识形态安全指相关主体在开发、使用、部署人工智能的过程中,宣扬、认同、强化、弘扬、贯彻落实本国主流意识形态,使本国的意识形态得以维系、保持稳定,并得到更多人认同的一种社会治理和社会秩序状态。

  科学技术的意识形态属性。当下,科学技术是第一生产力的观念已深入人心。作为经济基础的组成部分,科学技术与意识形态之间的关系备受关注。德裔美籍哲学家赫伯特·马尔库塞认为,正是由于技术的进步,将生产者牢牢地禁锢在生产设备上,将人驯化成机器的附属品,人也在这一过程中逐渐变为“单向度的人”,社会也成了“单向度”的社会。可见,科学技术的运用使意识形态融入商品生产的各个环节。从这个角度看,科学技术承担了一定意识形态功能。德国当代哲学家尤尔根·哈贝马斯在继承马尔库塞等学者观点的同时,进一步提出批判性认识和思考。他认为,科学与技术是通过一种“自下而上”的途径获得的。它可以使大众相信自身能够依靠科技进步的成果收获自我价值,从而不断拥护科学技术。正是由于科学技术为生产力和社会带来前所未有的发展动力,导致人们对科学技术产生近乎“迷信”的崇拜心理,在此过程中易忽视科学技术背后隐含的意识形态。

  人工智能引发意识形态风险的缘由。随着人工智能、大数据等新兴科学技术的发展,生成式人工智能兼具赋能社会发展的潜力及破坏既有社会秩序的能力。比如,在技术内生风险层面,“算法黑箱”导致决策过程不可解释,模型偏见可能产生系统性歧视特定群体等问题,数据依赖则引发隐私泄露与滥用危机。这些风险在全球化语境下呈现出跨地域传导特征,单个国家的治理失效可能引发全球性技术危机。不仅如此,有的西方国家还将符合其本国利益的意识形态夹杂于生成式人工智能的数据库中,通过生成内容输出方式进行系统性意识形态渗透。用户看似正在获取客观的生成内容,实际上已经逐渐接受经过算法筛选的意识形态框架。

  人工智能引发的意识形态风险。生成式人工智能具备深度学习功能,在预训练阶段“无差别”地抓取、收集各类海量数据资源。如果这些数据本身存在偏见性和歧视性的内容,那么将导致基于基础数据所生成的内容呈现良莠不齐的局面。当前主流的智能交互系统(如智能问答软件)依赖人工智能的数据采集与学习机制,通过整合海量基础信息“回答”用户的问题。这引出一个问题:当预训练数据集的多样性与包容性存在显著缺陷时,将直接导致输出内容产生严重的价值取向偏离。这不仅有损信息的公正性,还将持续加剧意识形态的监管难度。

  算法在价值选择和价值判断上并非完全中立。在生成式人工智能的研发过程中嵌入算法,实质上等同于将算法主体固有的偏见与结构性缺陷一并导入算法系统。这种技术耦合将不可避免地催生并放大诸如“算法歧视”“算法黑箱”“信息茧房”等技术风险,成为生成式人工智能应用的重要风险源头。在意识形态领域,算法推荐系统可能加剧文化偏见,使人工智能内容生成技术不断冲击人类价值共识,构成非传统安全领域的新型挑战。


  人工智能立法中意识形态安全的相关规定

  政治与法律作为上层建筑的重要组成部分,前者的发展变化直接导致法律的发展变化,而法律本身不仅是一种意识形态,而且发挥着保障主流意识形态安全的重要功能。

  社会主义核心价值观源于中华民族长期的共同生活和实践活动,是社会主义意识形态的本质体现。我国相关立法明确提出了弘扬社会主义核心价值观的要求。比如,《中华人民共和国网络安全法》第六条规定:“国家倡导诚实守信、健康文明的网络行为,推动传播社会主义核心价值观……”;第十二条提出,任何个人和组织“不得利用网络从事危害国家安全、荣誉和利益,煽动颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视……”。我国网络安全法从法律层面维护网络空间意识形态安全,主张不断提升网民辨别和化解网络意识形态危机的能力,养成良好健康的网络行为规范,增强主流意识形态的引领力和感召力,严厉打击利用网络传播各种错误思想的危害行为,优化我国网络意识形态安全的治理路径。《生成式人工智能服务管理暂行办法》第四条明确规定,提供和使用生成式人工智能服务应坚持社会主义核心价值观,明确禁止通过人工智能生成煽动颠覆国家政权、危害国家安全、破坏民族团结、宣扬恐怖主义等违法内容。

  西方国家在涉及人工智能的立法中同样将维护本国或本地区意识形态安全作为法律规范中的重要内容。比如,美国的《关于安全、可靠、值得信赖地开发和使用人工智能的行政命令》第一条明确指出,颁布该行政命令的目的旨在杜绝不负责任地使用人工智能,否则,可能加剧社会危害,比如出现欺诈、歧视、偏见和虚假信息,使工人流离失所、无依无靠;扼杀竞争,并威胁国家安全。


  人工智能引发意识形态风险的法治应对

  面对人工智能意识形态安全所面临的现实困境,应坚持问题导向和底线思维,通过强化社会主义核心价值观引领,有效防范化解风险危机,切实筑牢国家安全防线。

  坚持“以人为本”“智能向善”,构建人类命运共同体。《生成式人工智能服务管理暂行办法》确立了技术研发与应用的全周期伦理框架,要求生成式人工智能开发、部署以及使用的各环节应当恪守社会公德和伦理道德,尤其强调应以社会主义核心价值观为基准,确保生成内容符合积极正向的价值导向,最终实现“以人为本”与“智能向善”的目标。应当坚持技术服务人类,以增进全人类共同福祉作为人工智能研发工作的最终目标,保障社会公共利益和人类各项合法权益,维护人类命运共同体的利益。在开发与运用人工智能的过程中,应充分尊重文明多样性与价值多元特征,将人类置于生成式人工智能开发的中心,以确保人类在生成式人工智能时代的主体性地位,从而促进我国人工智能产业健康有序发展,推动实现技术造福人类的美好愿景。

  明确人工智能的立法原则,平衡技术创新与价值引领。《生成式人工智能服务管理暂行办法》明确提出“发展与安全并重”原则。这为人工智能治理提供了基本遵循。应以系统性风险评估为前提,构建人工智能技术法律治理体系。在充分评估数据处理局限性、算法推荐偏见性以及意识形态倾向性的基础上,从数据治理和算法优化两方面建立和完善我国人工智能法律体系,进一步规范制定行业标准,划定技术适用范围和职责权限。对于技术风险防控,着重考量我国人工智能的发展特质与社会治理形式,提出如“负责任的人工智能”“人机协同治理”等凸显中国特色的创新理念和治理主张;建立动态化风险研判机制,重点分析意识形态风险的表现形式、形成机理及治理路径,通过制度设计为资本设置“红绿灯”;推动构建包容审慎发展的人工智能治理国际规则体系,坚决守住国家意识形态安全防线,实现技术发展与价值引领的有机统一。

  坚持安全发展导向,构建多元协同的人工智能意识形态安全治理格局。人工智能意识形态安全治理格局的构建,既要始终坚持党的领导,也应充分发挥多元主体共同治理的效能,形成以法治、社会、平台为核心的治理格局。首先,要完善人工智能治理法律体系,清晰界定各主体责任边界,依法打击违法行为,建立健全针对人工智能专用数据的治理规则,对其采集、存储、处理、传输等全流程设定严格的规范。其次,应完善算法常态化评估机制,及时识别并处理其中蕴含的潜在偏见、安全漏洞及伦理风险,确保监管机构能够有效维护人工智能应用实践的公平性与合理性。最后,对于经评估风险等级较高的算法,应要求研发者迅速实施算法修正与迭代升级,切实降低其可能诱发的意识形态风险。通过建立稳定有效的动态监测预警机制,提升内容审核效能,完善多主体协同机制与多维路径共治,深化多元共治,压实平台责任,畅通社会监督渠道,形成社会治理合力。

  (作者单位:西北政法大学)