
AI时代之法律挑战
人工智能的发展,将会对社会治理、法律制度、监管乃至社会伦理等产生重大影响。现行的法律体系,或许面临全面重塑。
在一个科技成果展览会上,一名叫“小胖”的机器人突然“发飙”,在没有指令的情况下,自行砸烂玻璃站台企图“逃跑”,造成现场观众受伤。
这一幕并不是科幻电影对人工智能(Artificial Intelligence,AI)未来的想象而呈现出的画面,而是2016年11月18日,在深圳举办的中国国际高新科技成果交易会上出现的真实场景。
机器人引发侵权问题怎么办?随着人工智能应用的发展与普及,其改变的不仅仅是人们生活,作为调整人与人之间关系的法律体系也面临被全面重塑的需要。
8月27日,在北京召开的世界机器人大会上,一场人工智能法律与政策论坛也围绕人工智能时代面临的法律问题展开专门探讨。
虽然有人认为,距有独立自主意识的“强人工智能”时代为时尚远,但和所有的新兴事物一样,人工智能立法问题已经摆到了人们面前。
北京师范大学法学院教授、亚太人工智能政策与法律研究院院长刘德良接受民主与法制社记者采访时表示,人工智能立法应该防微杜渐,要考虑技术上的继承关系,人工智能发展政策法规更要形成全民共识,防止因为缺乏协调而出现不受人类控制的“强人工智能”产生。
北京大学法学院教授、中国科技法学会人工智能法专业委员会主任张平教授也认为,对于不同阶段的人工智能,应该有不同的立法考量,尽管政策上鼓励,法律上也应慎重。
而当前,人工智能发展下的个人信息保护、道德伦理等突出问题备受关注,对于未来以算法技术为核心的人工智能是否会引发算法黑箱、算法独裁也引发了人们的讨论。
AI是机器,不是人
“首先人工智能不是人,是机器。”
刘德良认为,人是认识世界、改造世界的主体,高级机器人还是高级客体。比如宠物,有情感,顶多只能是客体,机器人产生的作品不能予以承认。
刘德良认为,法律是调节人与人之间的关系,权利由人格产生,权利的主体都是人。机器人没有人格,所以没有权利。“比如对动物的爱护,是人有爱护动物的责任,而非动物享有权利。”
“即使对于超强智能机器人,成为人类的伴侣,也不能承认其婚姻合法化。”刘德良引述媒体报道称,本世纪末中国人口可能仅有6亿人,人与超强AI之间的关系,涉及种族繁衍问题。“AI伴侣如果遭受伤害,造成侵权责任按照特殊物进行赔偿,可以支持一定的精神损失。”刘德良说。
“人可以创造同类,比如生孩子,但绝对不可以创造一个同类的机器与自己平起平坐。这是由认识论决定的。”刘德良认为,“对于脑机接口,植入芯片,我不是我,万一被黑客入侵或者掌握怎么办?”
超强AI,超越算法设计,造成损害,谁来承担责任?如果这样,可能会影响软件开发设计者的积极性,应该平衡技术创新和绝对安全之间的取舍。
刘德良建议,能否找到一种科学技术方式,用另外一种技术控制算法超越?保险也是化解分担风险的方式,比如国家扶持,国家扶植产品的成本最后由消费者承担,通过买保险,降低消费者风险。
“必须有一个政策导向,从立法上限制,可以引导产业发展,可以确立边界,趋利避害。”刘德良表示,这样才能够走得快,走得稳。
AI侵权谁负责?
深圳机器人“小胖”伤人被看作国内首起机器人伤人事件,引发人们对人工智能发展出现的意外事件担忧,也对各国的法律和司法提出了问题。
中国法学会法治研究所研究员刘金瑞认为,目前人工智能仍然是人类的工具,就像侵权责任法中的物件责任,物体伤害了别人,还是需要所有者负责。现在法律只需做细微的调整就可以适应人工智能带来的法律问题。
在刘德良看来,谈论机器人侵权,需要看AI发展到什么程度。“强人工智能时代,机器人就有了认知能力,可能脱离人的控制,比如让去买烟的时候买了毒品回来,这个时候法律关系就完全不一样了。”
但如今,刘德良认为,主要涉及人工智能硬件和软件生产销售问题,硬件砸伤了人,适用于产品质量责任法;如果软硬件均发生侵害,或者分不清软硬件的伤害来源,那么软件的开发设计者、人工智能的制造商、软件开发设计者都要承担责任。
华东政法大学政治学研究院院长高奇琦教授举例说,设想如果一个机器人警卫袭击了一位来访者,这可能不仅是机器人警卫所有人责任,还可能是机器人制造商、维修人员以及检查人员的责任。
但高奇琦表示,在未来可以预见的是,当产生机器人侵权事件的时候,机器人拥有者可能会以机器人是由人工智能系统在维系操作,它应该是一个独立的个体,以此达到免责的目的。
而生产者则可能会申辩称,虽然他们生产了这个机器人,但是机器人已经重新给自己编制了程序,或者说它的新主人给它重新编制了程序,当机器人所有权转移之后,其侵权责任已经不在生产者手中了。
高奇琦表示,这种纠纷是可以想见的,届时责任认定将会是法律上的一个难题。而机器人一旦涉及犯罪,就会产生一系列问题。
7月初,百度召开AI大会时,百度CEO李彦宏乘坐无人驾驶汽车经北京市五环路抵达现场,随后百度公司被北京交警部门约谈引起舆论关注。
无人驾驶造成事故谁担责?同样是近年来舆论关注的话题。
在2016年2月,美国国家公路安全交通管理局认定谷歌无人驾驶汽车采用的人工智能系统可以被视为“司机”。
也就是说,在美国,人工智能产品在一定程度上已经被赋予了虚拟的“法律主体资格”。而根据我国法律,人工智能产品仍是“物”而非“人”。
百度专利事务部总经理秦健在人工智能法律与政策论坛上也提到,目前欧美日等发达国家纷纷在政策立法上对无人驾驶进行布局,中国要实现无人驾驶上路,同样需要克服一系列的制度障碍。
例如,由工信部门主管的硬件、软件、信息、安全、数据等相关标准的出台,由公安部门主管的安全检测、驾驶资质等的完善,由交通运输部门主管的载客载货场景的完成,等等。
曾在奥迪中国合规部深度介入自动驾驶研究的北京律师何姗姗也提到自动驾驶目前在中国的障碍,包括涉及多个部门的协调,无测试方面的法律与部分现行法律相冲突,以及无安全标准等。
中国科学院大学副教授、中国科技法学会人工智能法专业委员会副主任刘朝表示,机器人给当事人造成损害,最大的问题是,没有道德感的机器能否成为责任承担者?
她表示,在现有的法律框架内,这并不是最大的障碍,以现有的法人制度为例,法人也没有道德感,但法人依然可以承担法律责任。
在刘朝看来,真正的难点主要是,人机之间的过错如何划分,人人之间的过错如何划分,机器承担责任有限,起不到惩罚作用。
但刘朝表示,最大的难点其实还是技术问题,而不是法律,“关键是机器人在多大程度上能和人接近,机器有自主意识,法律上的惩罚措施就能够起到作用。”
隐私保护问题突出
人工智能时代个人信息的保护仍然是人们关注的问题。
张平将个人信息的保护视为人工智能面临的两大突出问题之一。她认为,在人工智能时代,人身权不受侵害、敏感信息无害传播是个人隐私保护的最低原则。未来个人信息的收集是无法避免的,但一定要坚守这一底线。
为多家科技公司担任法律顾问的北京律师王新锐表示,目前人工智能基本都会涉及机器学习技术,这意味着需要收集、分析和使用大量数据,其中很多信息属于个人信息。
而按照个人信息保护方面的法律规定,这些行为应当取得用户明确、充分且完备的授权,并应当明确告知用户收集信息的目的、方式手段、内容、留存时限还有使用的范围等。
他举了一个Facebook网站采集用户脸部特征的例子。
2011年,Facebook就曾因其人脸识别和标记功能未按美国伊利诺伊州《生物信息隐私法案》(BIPA)要求告知用户收集面部识别信息的期限和方式被诉,随后又因采集面部特征前未能明确提醒用户并征得用户同意而遭到爱尔兰和德国有关部门的调查。
尽管Facebook辩称,默认开启该功能是因为用户通常不会拒绝进行人脸识别,并且用户有权随时取消这一功能,但德国汉堡市数据保护与信息安全局坚持Facebook的面部识别技术违反了欧洲和德国的数据保护法,Facebook应删除相关数据。
最终,Facebook被迫在欧洲地区关闭了人脸识别功能,并删除了针对欧洲用户建立的人脸数据库。
另一方面,公权和私权的冲突,也许会因为人工智能技术的引入出现新的形式。
2016年阿肯色州发生的一起谋杀案中,警方希望获取Alexa语音助手收集的语音数据,该请求遭到了亚马逊公司的拒绝,理由是警方没有出具有效的法律文件。
这样的例子不在少数。今年5月8日,腾讯就拒绝了一地方法院发函要求提供一微信用户聊天记录的要求。
王新锐给客户的建议是,人工智能开发者在收集、使用数据的过程中,还要遵守安全保障原则,采取适当的、与个人信息遭受损害的可能性和严重性相适应的管理措施和技术手段,防止未经授权的检索、披露及丢失、泄露、损毁和篡改个人信息。
张平还呼吁,人工智能时代应重视未成年人保护。
她提到了美国的“橡皮擦法案”。该法旨在避免未成年人因其年少无知的行为而对未来的工作生活带来不利影响。该项法令规定,针对未成年人在社交网站上公布的内容,包括图片、消息或博文,如果未成年人要求删除,则社交网站应当删除指定信息,而且社交网站负有向未成年人提示此项权利的义务。
AI的算法歧视与“黑箱”担忧
王新锐介绍,人工智能在应用中,如果输入的数据代表性不足或存在偏差,训练出的结果将可能将偏差放大并呈现出某种歧视特征。
据媒体报道,由谷歌创建的广告定位算法就被指存在对互联网用户的性别歧视。
比如,在搜索20万美元薪水的行政职位中,假冒男性用户组收到1852个广告,而假冒女性用户组仅收到318个广告。
同样,2016年3月23日,微软公司的人工智能聊天机器人Tay上线不到24小时,就在一些网友的恶意引导和训练下,发表了各种富有攻击性和歧视性的言论。除此以外,因为数据存在偏差,导致结果涉嫌歧视甚至攻击性的例子,已经大量出现。
王新锐表示,这意味着开发者在人工智能的训练和设计过程中需要秉承广泛的包容性,充分考虑女性、儿童、残疾人、少数族群等易被忽视群体的利益,并对道德和法律的极端情况设置特别的判断规则。
与此同时,未来算法技术可能出现“黑箱”“独裁”的情况也引发担忧。
以司法领域对人工智能应用为例,上海大学法学院讲师岳林认为,未来真正有效的司法知识,会被隐藏到人工智能的算法“黑箱”中去,仅仅被少部分掌握人工智能控制权的当权者掌握。“因此,由谁来设计司法人工智能,以及如何使用、控制和改造机器人法官,也就成了更为根本的问题。”
高奇琦也表示,因此在未来的法庭上,如何解释算法是一个非常具有高度挑战性的工作,特别是对于那些不了解人工智能和计算机技术的人而言。
他提示,应当警惕人工智能算法的独裁和偏误。“在未来,大量的规则都会被写进人工智能算法中,然而,如果编程人员不了解法学、政治学、社会学等学科,他们就不能理解这些规则的深层意义,会有失公平。”高奇琦说。
期待完善AI制度体系
人工智能时代的到来还面临着一系列制度性问题。
最近,国外网站出现了一段视频,在视频中小孩向亚马逊Alexa下达指令:“Alexa,请播放‘diggerdigger(儿童歌曲)’。”之后,亚马逊个人助手通过算法进行识别,竟然认为小孩想听情色内容并开始播放。
无独有偶,一名6岁的女孩在和Echo内置的人工智能助手Alexa聊天时,订下了价值170美元的玩具。虽然小孩的妈妈在知道此事后立刻取消了操作,但订单早已经被处理。
今年5月19日,微软机器人“小冰”在北京举办了她“个人”第一部原创诗集《阳光失了玻璃窗》新书发布会。这个可以聊天、可以写诗的人工智能机器人,引发机器人“著作权”空前的热议和争论。
另外,国外歌手与AI合作创作的歌曲在社交平台走红网络。
不久前,2016年热播电视剧《锦绣未央》的原著《庶女有毒》采用“自动写作软件”涉嫌抄袭两百多部小说,而被告上法庭。
今年4月,美国著名企业家埃隆·马斯克(Elon Musk)宣布为防止超级人类的出现,成立公司专门研发脑机接口技术。
人工智能已经被推到时代的前沿。7月8日,国务院印发的《新一代人工智能发展规划》也指出,加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架。
规划指出,开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等。
规划强调,要参与人工智能全球治理,加强机器人异化和安全监管等人工智能重大国际共性问题研究,深化在人工智能法律法规、国际规则等方面的国际合作,共同应对全球性挑战。