“人工智能+”行动开展的伦理风险与法治保障
2024年12月召开的中央经济工作会议明确提出,“以科技创新引领新质生产力发展,建设现代化产业体系”“开展‘人工智能+’行动,培育未来产业”。通过将人工智能技术与各行各业深度融合,在推动技术迭代与产业转型升级中,实现跨领域的技术协同与创新,有利于不断催生新场景、新业态、新模式和新市场,塑造未来产业、商业与人们生活新形态,这也代表着新一轮科技革命和产业变革的前沿方向。其中,“人工智能+”行动在对传统行业全面赋能与重构过程中,应建立健全人工智能应用的风险识别体系和监管机制,推进人工智能立法,防范化解智能时代的安全隐患和风险挑战,为科技创新与经济社会发展之间的良性互动提供法治保障。要加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德,引导人工智能朝着有利于人类文明进步的方向发展,为新时代开展“人工智能+”行动提供重要制度支撑、法治保障。
“人工智能+”行动可能面临的伦理风险
人工智能伦理是人们开展人工智能技术研发和社会应用时需要遵循的价值理念和行为规范。“人工智能+”的发展可能使这一问题的外延不断扩大,涵盖法律、安全、医疗、教育、就业、环境等各个方面,涉及人与人、人与自然、人与科技产品之间多维度的关系。2021年9月,国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》,提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等基本伦理要求,既包括具体行动规范等有形形式,也包括观念、情感、意志、信念等无形形式。
人工智能伦理风险是指人工智能技术在开发、部署和应用过程中,因技术特性、使用方式或管理缺陷而引发的违背伦理原则、损害社会价值、冲击个人权益或破坏生态平衡的可能性。一方面,人工智能伦理风险源于人类固有的歧视、偏见等伦理问题,通过算法、大数据等嵌入新的形式和手段,使其更具有复杂性和隐蔽性。比如大数据“杀熟”问题,实质就是经营者对算法的滥用,利用消费者的信任和信息不对称,实行价格歧视,侵害消费者的权益,背离公平诚信的价值原则。又比如“信息茧房”问题,推荐算法将用户的思想和行为束缚在某一类信息中,并将价值观和偏好相似的人群聚集于同一数字空间,进而不断加深用户固有的思想,形成“井蛙困境”,阻碍观念的更新与发展,影响人对现实世界的全面认知。另一方面,人工智能伦理风险来源于技术发展给人类社会带来的新问题,如“数字鸿沟”。它既存在于不同国家之间,又存在于一个国家内部的不同人群之间,其实质是信息时代获取数字资源、掌握技术程度的不同而带来的社会公正问题。“数字鸿沟”渗透到人们经济、政治、社会生活各个方面,演变出新的不平等形式和社会分化,给社会的和谐稳定埋下隐患。
坚持“以人为本”,促进人工智能算法应用向善
防患化解人工智能伦理风险,需要通过主动预防及制度化措施,使“人工智能+”行动朝着有利于人类社会的方向开展。要未雨绸缪,不断提升人工智能的安全性、可靠性、可控性、公平性。2023年10月,中国发布的《全球人工智能治理倡议》提出“以人为本、智能向善”的人工智能发展方向。2024年7月,第78届联合国大会一致通过由中国主提的加强人工智能能力建设国际合作决议,该决议进一步强调了我国《全球人工智能治理倡议》中提出的人工智能发展应坚持以人为本、智能向善、造福人类的原则,积极构建“以人为本、智能向善”的人工智能领域人类命运共同体。
“以人为本”强调技术发展不能偏离人类文明进步的方向,应始终以增进全人类的共同福祉为目标。人工智能的本质是为人类社会服务,为人类造福,而人类社会的核心价值就是“以人为本”,人工智能的立法宗旨应当贯彻“以人为本”的根本理念。推进“人工智能+”范畴下未来产业的发展也应当坚持“以人为本”的理念,以增进全人类共同福祉作为人工智能研发与社会应用的最终目标,维护公共利益和人民权益,构建数字化进程中的人类命运共同体。
“智能向善”规定了人工智能在法律、伦理和人道主义层面的价值取向,应秉持和平、发展、公平、正义、民主、自由的全人类共同价值。算法是人工智能的“大脑”,“智能向善”的核心是“算法向善”,而算法设计和优化背后体现的是人的价值观。人工智能技术高速发展下算法歧视、差别对待、信息不对称等可能导致的智能“鸿沟”,使弱势群体面临更严峻的智能化挑战。其破解路径在于开发、应用人工智能过程中,严守社会公平正义,加强数据监管,妥善消除偏见,在技术上植入人伦情感。2023年8月15日起,国家互联网信息办公室等七部门联合发布的《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)正式施行。《暂行办法》强调生成式人工智能在开发、设计、部署、使用的全过程都应尊重社会公德和伦理道德,尤其要坚持社会主义核心价值观,生成内容应当遵守积极健康、向上向善的原则和理念,以实现技术向善、智能向善的价值目标。
构建系统性的人工智能法律体系
生成式人工智能是当今人工智能发展的高阶产物,不同于传统人工智能仅对输入数据进行处理和分析,生成式人工智能通过大数据分析、深度合成、自然语言处理等技术,可以学习并模拟事物的内在规律,针对用户需求生成具有逻辑性和连贯性的新内容,具备类人的感知、推理、学习、理解和交互等能力,可以赋能各产业发展,前景广阔。当前,我国关于生成式人工智能的治理已形成以《暂行办法》为总体性规定,以数据、算法相关法律为具体技术性规定的法律体系。比如,在数据方面的立法有《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》《中华人民共和国网络安全法》等;在算法、深度合成技术方面的规范有《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等。这些法律法规的出台虽然极大改善了人工智能发展的无序状态,但目前还尚未做到系统化,各法律法规之间也在规范内容上有所交叉。特别是面对生成式人工智能技术可能引发的公共风险具有复杂性、多样性、多变性特点,现行伦理规则和法律制度仍需要进一步完善。
总体来看,《暂行办法》作为我国现阶段规范生成式人工智能发展和应用的主要法规,尚不能全面涵盖人工智能所引发的各类问题,也不足以与现行法律法规做到充分有效衔接。我国仍需出台一部关于生成式人工智能的综合性立法,以对人工智能的法律问题作出全面规定。2024年3月全国两会期间,多名人大代表提出关于制定人工智能法的意见建议。人工智能法草案也在2023年、2024年连续两年被列入国务院年度立法工作计划,作为预备提请全国人大常委会审议的法律草案,这反映了我国人工智能领域发展的迫切需求。在统筹发展与安全、推动人工智能技术健康发展的时代背景下,立法成为应对人工智能技术快速发展而带来的风险与挑战的重要举措之一。
但受技术快速迭代、风险复杂性等因素影响,我国对人工智能立法较为审慎,这使得人工智能法草案目前尚未进入全国人大常委会正式立法程序。构建系统化的人工智能法律体系,需要从立法原则、制度设计、国际协作、技术支撑等多个维度进行统筹规划,在推进人工智能立法过程中可通过地方试点、临时规范及学界研究等方式积累经验,凝聚共识,为未来统一立法奠定基础。
例如,在综合立法尚未出台背景下,我国有的地方已开展相关立法实践,2022年深圳和上海分别颁布人工智能产业促进条例,以地方性法规形式探索促进人工智能发展与安全治理的平衡问题,通过政策创新和实践探索,推动人工智能产业高质量发展,也为全国性立法提供了参考。相较于欧盟统一立法模式和美国分散立法路径,我国在人工智能治理方面,可先出台“人工智能促进法”,以“小切口”推动监管创新,并在实践中逐步完善细则。同时,针对当前立法存在概念模糊、体系性不足等问题,学界应在人工智能的法律定义、伦理规范及分层治理机制等方面加强研究,以系统思维构建统一的法律框架,保障并促进“人工智能+”行动健康、安全、高质量开展。
(作者单位:西安电子科技大学马克思主义学院)