
人工智能风险的法律应对
规制目前人工智能领域存在的问题,要立法先行,但立法必须考量人工智能的综合性,把握数据应用与个人隐私之间的价值衡量。其监管主体应多元化、透明化,并注重从伦理规范角度进行引导,培养相关领域专业人才。
今年全国两会,人工智能成为热点话题。不仅政府工作报告首提“智能+”,而且全国人大常委会还将一些与人工智能密切相关的立法项目,列入了立法规划。人工智能(Artificial Intelligence,AI)一词自1956年由达特茅斯学院(dart mouth college)提出后,随着科技尤其是全球智能技术的进步,越来越多地出现在人们的视野中。以人工智能、区块链(Block chain)、大数据(Big Data)等为代表的新兴科技快速发展,人类社会正在从信息化走向数字化和智能化。
但正如英国著名社会学家安东尼·吉登斯所言:“为了避免(科技风险)严重而不可逆转的破坏,人们不得不面对的,不只是科技的外部影响,而是也包括限制科技发展的逻辑。”它不仅带来了快速的技术进步、高效的创新业态和更高品质的社会生活,同时也带来了各种“创造性破坏”、难题和挑战,使得制度体系、运行机制、规制方式和社会秩序等面临着很大程度的“颠覆”与“重建”,其引发的社会风险对当下的法律规则和法律秩序将带来一场前所未有的挑战。
法律究竟该如何应对人工智能、区块链、大数据等新兴科技的快速发展,法律人该如何赢得更好的未来,笔者认为应从立法、制度规范、协同共治等多角度发力。
立法慎行
通过立法对人工智能等应用进行规范十分必要。现实生活中人工智能的很多应用场景已开始“呼唤”将相关立法提上议程。比如,智能图像“人脸识别”场景引发的消费者肖像数据该如何使用?人工智能创作的艺术作品版权到底归谁?无人驾驶技术造成的人员伤亡,该如何划分责任?笔者认为,人工智能的立法需尽快提上议程,但亦应注意到它仍属于新生事物,如何把握适当的边界是关键,尤其要考虑人工智能可以应用到金融、医疗、交通等多个场景中。
今年全国两会前夕,百度创始人、董事长李彦宏接受媒体采访时表示,人工智能立法本身不应该太超前,“很多时候新事物刚刚出现,让它稍微跑一段时间然后再总结经验,找到规律再来立法。”因此,盲目出台总括性法律规制人工智能领域现在遇到的问题,可能会阻碍人工智能的发展。笔者认为,在下一步具体立法过程中,必须考量人工智能的综合性,把握数据应用与个人隐私之间的价值衡量。同时,对于这一新生事物还处于方兴未艾之际,立法应该具有适当的前瞻性,给人工智能的进一步发展留下充足空间。
监管要多元化、透明化
随着人工智能在人们日常生活中的应用越来越普及,其监管问题也逐渐浮出水面。人工智能作为新一轮产业变革的核心驱动力,正在释放多次科技革命和产业变革积蓄的巨大能量。监管始终离不开政府的力量,政府是必不可少的监管主体。但是对于这一新兴技术,单一的监管机构是不可行的,而应该将其嵌入现有的监管机制之中。
笔者认为人工智能监管的主体应该多元化,不仅要发挥政府监管的主导作用,而且要积极引入社会媒体、个人、企业、行业协会等非政府组织的监管。如政府与平台共同监管,各尽其责,政府制定监管标准、监测市场运行、评估监管效果;企业具体实施监管标准并承担法律责任。通过企业和公共部门共同合作、每个部门都为人工智能监管体系做出自己应有的贡献,如此一来,大家就有机会建立更好的管理规范,迎来更美好的未来。
同时,要进一步建立健全公开透明的人工智能监管体系。其重点应在人工智能的设计问责和应用监督并重的双层监管结构上做充分准备,实现对人工智能算法设计、产品开发和成果应用等全过程监管,切实加强人工智能协同一体化的管理体系,加大对人工智能领域数据滥用、算法陷阱、侵犯个人隐私、违背道德伦理等行为的惩戒力度。
重新探讨伦理规范
目前,人工智能的快速发展已带来了一系列问题:譬如个人关键隐私信息的大面积泄露、人工智能对若干劳动岗位的冲击、大数据和人工智能深度结合形成的新型数据独裁问题等。事实上,每一次技术飞跃与变革,都会带来相应社会的阵痛,但社会总能在阵痛中实现转型,这些问题要求人们在伦理意义上仔细审视人工智能的发展。
2018年12月,来自欧盟的52名各领域专家学者联合发布了《人工智能发展和运用的伦理指导》,希望在伦理方面对人工智能技术进行规制。他们认为,人工智能首先应当尊重基本人权、伦理规则和社会价值,即追求“伦理目标”;在保持技术创造性的同时,需要反思和加强人工智能的可靠性。随着人工智能技术的发展,将不得不触碰人类社会的伦理原则。伦理与法律存在天生的耦合性与关联性。伦理是人类特有的,体现道德的意志,外延较大但并不具有当然的强制力;法律的外延相比之下要小一些,但却最为有力。
笔者认为,在数字社会的大背景下,从业者需要保持警醒、自省,更需要相信科技向善,相信人类有能力和智慧去驾驭和控制这次技术革命。技术来自于人类对美好生活的追求,它始于人,也应控于人,无论是立法限制,还是价值原则,归根结底,都是对人类社会伦理价值的重新探讨。
人才支撑未来发展
来自中国新闻网的报道显示,根据工业和信息化部调研统计,中国人工智能产业发展与人才需求比为1∶10,预计到2030年,人工智能核心产业规模将达1亿元,相关产业规模将达10亿元,人工智能人才缺口将达500万人。信息及数据在未来社会的发展中有着非常关键的作用,是社会生产的重要资源,而目前人工智能的发展还处于初级阶段,却要依靠大量相关人才的处理。因此,科技人才对于数据产业以至社会的高效发展都起着重要作用。
今年两会期间,全国人大代表、科大讯飞董事长刘庆峰接受媒体采访时表示,落实人工智能国家战略,必须人才先行,打造人工智能时代的“人才矩阵”,形成基础能力、源头创新、产业研发、应用开发、实用技能等多类型人才并重并用的局面。这可以通过强化基础人才建设、引进源头创新人才、培育产业研发人才、扶植行业应用人才、锻造技术工人等举措来实现。目前,人工智能正在加速更新换代,需要更多青年人才推动。“得人才者得天下”,当企业发展越来越需要人才具备在深度学习、人机交互、物联网等技术领域的知识和能力时,落实教育部印发的《高等学校人工智能创新行动计划》的文件则显得尤为重要。据统计,目前,全国已有20余所高校设立了人工智能相关专业,西南政法大学还设立了人工智能法学二级学科。因此,全面推进人工智能学科建设和人才培养迫在眉睫。
同时,政府应制定有关人才政策方针、加大高端人才引进力度,完善人才培养机制,力争集聚人工智能顶尖科学家、企业家、投资人,加强高层次人才和后备人才培养,建设结构优化务实高效的人工智能人才梯队。让我国成为智能时代的英雄辈出之地,在新一轮人工智能浪潮风起云涌之中抢夺机遇。但就现有条件来看,我国在人工智能法学领域布局的力量尚显单薄。全国600多所高校建有法学专业,但目前仅有西南政法大学设立了人工智能法学院。笔者认为,传统法学教育应该顺应人工智能发展大潮,及时加快人工智能法学人才建设,并力争为未来我国人工智能健康发展保驾护航。
(作者系中央财经大学法学院博士研究生)