“人工智能时代的治理转型”系列报道之四

AI换脸,如何让技术向善而行?

  在数字浪潮的推动下,人工智能的发展为全世界带来前所未有的新变革。ChatGPT和GPT-4o等大模型推出,信息科技领域掀起了一股热潮,引发了公众对AI(人工智能)技术的高度关注和热情。然而,随着深度合成技术的逐步开放和开源,市场上出现了越来越多的深度合成产品和服务。利用“AI换脸”“AI换声”等虚假音视频进行诈骗、诽谤、侵权等违法行为也变得越来越普遍。


  AI诈骗 防不胜防
  
  中国有句古话叫:“耳听为虚、眼见为实。”但随着AI的广泛应用,眼见也不一定为实。
  去年,一则《10分钟被骗走430万元》的新闻,在朋友圈刷屏:
  2023年4月的一天,福建省福州市某科技公司法人代表郭先生的手机突然响起,是好友的微信视频通话请求,郭先生随即接通了,手机画面里出现了好友熟悉的面孔和声音。
  短暂聊天后,好友告诉郭先生,自己的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,所以想要借用郭先生公司的账户走一下账。好友向郭先生要了银行卡号,声称已经把钱打到郭先生的账户上,还把银行转账底单的截图通过微信发给了郭先生。
  基于视频聊天的信任,郭先生没有犹豫,便用公司账户分两笔将430万元转入了好友提供的账户。事情办妥后,郭先生特意给好友发送了一条消息确认。然而,他等来的却是一个大大的问号。
  郭先生立即拨通好友的电话,好友表示对此事毫不知情,郭先生这才如梦初醒,意识到自己遭遇了电信诈骗。他赶紧查看自己的银行账户,那笔所谓的“已到账”款项根本就是幻影,而自己的430万元却不知去向。
  “从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生事后接受采访时表示。
  2023年被称为AI元年,AI技术在全球范围内飞速发展,并且渗透到了各行各业,也使得电信诈骗出现了新方式、呈现出了新特点。一些不法分子利用AI换脸伪装成特定人物,通过声音合成,与他人进行实时视频对话,或搭建虚假“镜头环境”、伪造视频内容,更换后的面部表情自然,以假乱真,博得受害人信任,诱骗受害人上当。
  网络安全公司奇安信在发布的《2024人工智能安全报告》中提到,2023年基于AI的深度伪造欺诈暴增了3000%,而基于AI的钓鱼邮件数量增长了1000%。该报告指出,各类基于AI的新型攻击种类与手段不断出现,甚至已经泛滥,成为迫在眉睫的威胁。
  而依据瑞莱智慧公布的数据,国内AI诈骗案件的涉案金额已经从2020年的0.2万元,增长至2023年的1670万元,年复合增长率达1928.8%。2024年刚刚过半,发生的AI诈骗案件涉案金额已经超过1.85亿元,态势十分严峻。
  从目前公开报道来看,利用AI技术实施诈骗的案例,有不少都是相似手法,且涉案金额都不小。
  某位在公司负责财务工作的女士接到老板视频电话,要求她转账186万元到某个指定账号。“老板让把这个款赶紧转过去,这个款非常着急,因为他声音还有视频图像都跟他真人一样,所以就更确信这笔款是他说的了,然后我直接就把这笔款转了。”幸运的是,这位女士将电子发票发给老板时,忽然意识到可能是骗子利用智能AI换脸和拟声技术,佯装成领导对她实施诈骗,便立即报警。最终通过警方对接反诈中心、联系相关银行进行紧急止付,保住了被骗资金156万元,挽回了大部分损失。
  这些案例的背后,均涉及了AI换脸以及声音合成技术。而据去年公安部的公开信息,像这样假冒身份类诈骗案件占比较大。
  据相关技术人员介绍,AI诈骗主要采用的技术是Deep fake,意思就是深度伪造。它是一项人工智能的人体图像合成技术。AI诈骗主要就是利用这项技术,进行换声、换脸,再通过电话、社交媒体进行的欺诈。中国网络空间安全协会人工智能安全治理专委会专家薛智慧曾在接受采访时表示:“如果想要实现视频实时通话时采用人工智能AI换脸技术,一张照片是远远不够的,那就需要不同角度的近千张照片的采集。如果要实时点对点交流的话,需要再采集更多的照片,进行深度学习算法模型的训练,训练出来这个模型以后灌到视频里去,就可以做实时的变化跟转换了。”
  而“郭先生的朋友”“某女士的老板”的照片和声音都是通过什么渠道被不法分子得到的呢?技术人员在接受采访时透露:“现在好多人在社交媒体上分享日常,晒出大量照片,不法分子可能是从社交媒体上直接获取了个人信息,也可能通过拨打骚扰电话等方式,获取了这些人的声音信息。”技术人员还向记者介绍,目前网上有很多制作换脸视频的软件,甚至有人售卖换脸视频,你只需要发送自己的一张照片,对方就可以帮你制作一条换脸视频。如果需要特定的话语,提供文字,便可得到口型匹配的说话视频。此类技术已经非常成熟,视频价格都很便宜,一分钟视频只需要二三十块钱左右,半小时就能完成。
  “AI诈骗本质上是一种电信网络诈骗,其主要法律罪名是诈骗罪。另外还可能涉及非法收集和买卖个人信息,触犯侵犯公民个人信息罪;帮助诈骗分子获取被诈骗的钱财,则可能构成帮助信息网络犯罪活动罪。” 上海市法学会党组副书记、专职副会长施伟东表示。
  除此之外,施伟东还表示:“AI换脸诈骗不仅侵害了被害人的财产权,还冒充被害人侵害其肖像权和声音权(声音权益虽不属于具体人格权,但作为一项人格利益可参照适用肖像权保护的规定)。根据民法典第990条、第991条、第993条、第995条之规定,人格权受到侵害的,受害人有权依照本法和其他法律的规定请求行为人承担民事责任。同时,受害人的停止侵害、排除妨碍、消除危险、消除影响、恢复名誉、赔礼道歉请求权,不适用诉讼时效的规定。比如在被诈骗了430万元的案例中,诈骗者使用AI技术伪造了其好友的肖像和声音。这种情况下,企业家不仅是财产受害者,其好友的肖像权、声音权等人格权也受到了侵害,应当予以救济。”
  
  一键换脸 AI的另一面
  
  除了一些不法分子利用AI技术实施诈骗,事实上,近年来AI更多被应用在娱乐性质的短视频二次创作中,“AI特效一键生成”“四分钟制作AI换脸视频”等AI换脸的软件随处可见,新技术带给用户新鲜的体验,仅需要提供一张照片,你就可以变成视频中的人,并有眨眼、嘟嘴等生动的表情,非常自然。
  随着创作门槛与技术要求的不断降低,如今我们频繁地在各类短视频平台上看到标注着“此内容疑为AI技术生成,请谨慎辨别真伪”的提示,而网络空间内,仅需简单搜索便能轻易获取众多“AI换脸”技术的详细教程。AI换脸技术的风靡一时,其背后隐藏的法律风险却往往被大众所忽视。
  一位网红博主不久前在某社交平台上传了两段自己身穿古装服饰的视频。没过多久,她发现在某款视频制作App上出现两款AI视频模板,模板上除了面部特征外,服饰、背景都和自己发布的视频完全一致。而该款App称可通过付费,为用户提供博主同款服装、背景的AI换脸服务。
  网红博主认为,该公司在没有与自己达成授权协议的情况下使用有自己肖像的视频,且带有商业营利、宣传属性,侵犯了自己的肖像权。
  诉讼中,开发App的被告企业认为,AI模板上的两段视频在时长、面部特征等方面进行了加工处理,属于二次制作,具有原创属性。上海市徐汇区人民法院审理后认为,虽然被告方通过技术手段对人物的面部特征进行了调整,但经比对仍能识别对应主体为该博主。法院综合考量后,认为被告公司行为侵害了该博主的肖像权,判决被告公司赔偿该博主经济损失2000元,及合理费用支出349元。
  我国民法典在1018条第二款明确规定:“肖像是通过影像、雕塑、绘画等方式在一定载体上所反映的特定自然人可以被识别的外部形象。”即只要能够呈现出特定自然人的外部形象,并且可以使他人清楚地识别出该外部特征属于某个特定的自然人,那么这种外部形象就属于肖像。
  西北政法大学数字法治与数据安全研究院院长陈京春教授解释,民法典明确了侵犯肖像权的具体行为,包括未经肖像权人同意,丑化、污损或者利用信息技术手段伪造等方式侵犯他人的肖像权,如“AI换脸”;未经肖像权人同意,制作、使用、公开肖像权人的肖像等。肖像权作为一种绝对权,具有排除一切侵害行为的法律效力,未经他人同意,将其面部信息用于制作换脸视频时,无论行为者是否具有营利的目的,均涉嫌侵犯肖像权。
  审理此案的徐汇区人民法院民事审判庭法官戚垠川在接受记者采访时表示:“原来认定侵犯肖像权,可能仅仅是针对面部特征,随着民法典最新的规定,扩大到了‘可被识别的外部形象’。本案属于新类型案件,不是简单的是或者否的判断,而需紧扣‘可识别性’这一核心要义进行综合判断。”
  本案的裁判结果,以“可识别性”作为是否构成肖像权的重要判断标准,明确“AI换脸”技术应用场景下自然人肖像权延伸保护的认定模式。
  不久前,因制作贩卖淫秽物品牟利罪,白某被北京市海淀区人民检察院提起公诉。在互联网公司工作的白某,2023年接触到人工智能“一键去衣”功能后,动了歪心思,发布广告:“电脑AI去衣,白菜价,身边人、网红、明星皆可”,不少人联系他,购买这项服务。发送一张女性的日常照片,在白某的AI一键脱衣技术之下,转瞬,就变成了裸照。据检察机关统计,他在QQ上向351个人贩卖过相关图片,图片数量将近7000张。
  办案人员解释:“其实我们可以把它理解为深度的图片伪造,它并不是真的去掉别人照片上的衣服,其实都是针对已有的模型和已有的模组进行图片重绘。”
  “‘AI换脸’技术已经被大量运用于色情淫秽物品的制作,不法分子通过‘AI换脸’技术随意制作、合成色情制品以吸引顾客,然后根据购买人的定制需求大量制作、贩卖换脸后的淫秽色情制品,同时出售‘AI换脸’软件、传授换脸技术教程,凭借几张照片和换脸操作,就可以让他人成为色情制品的受害者,挑战和破坏了社会公序良俗,甚至影响未成年人身心健康。”陈京春表示,“AI技术现在使用门槛低,常发生在隐蔽的环境中,受害人无法察觉,一旦发生,对受害人造成的损害是无法挽回的。”
  据了解,这种AI“一键去衣”的技术,也在逐渐变成不法分子敲诈勒索的工具。
  AI技术滥用的法律风险远不止这些,“AI换脸技术在处理视频和图像时,常常涉及原始素材的版权问题。如果这些素材未经版权所有者授权即被使用,便构成了对版权的侵害。更复杂的是,由AI技术生成的新图像和视频的版权归属问题目前仍然缺乏明确的法律规定,这给版权保护带来了新的挑战。”施伟东解释道,“除此之外,AI生成的人脸替换视频足以达到以假乱真的效果,如果被运用到虚假信息的生成和传播中,不仅误导公众,还可能被用于操纵和引导舆论,影响社会的稳定和秩序。虚假信息的传播速度快、影响范围广,给法律规制带来了极大的挑战。”
  
  AI治理 走到关键十字路口
  
  由于算法是开源的,这就意味着任意一名懂技术的工程师,就能制作出一款AI换脸软件,导致想在源头上控制利用AI犯罪,难度很大。
  由于深度合成的换脸技术需要人脸信息作为“源数据”, AI相关技术人员提醒,公众平时应注意保护个人信息,不要轻易提供人脸等个人生物信息给别人,不要过度公开或分享动图、视频等,避免被不法分子利用。除此之外,他还介绍:“虽然AI制作的视频已经非常逼真,但还是可以通过一些方法识别,如果觉得视频可疑,你也可以让对方摸摸鼻子、摸摸脸,增加AI的造假难度,画面可能会出现闪现,露出破绽。”
  据了解,刚刚结束的2024人工智能大会上,蚂蚁集团展示出了对抗AI换脸的产品,用来防范人工智能造假。
  如何不让AI换脸处在法外之地?施伟东表示:“除了对利用AI换脸进行诈骗和侵犯个人信息等行为予以严厉打击,保护个人隐私权、肖像权、名誉权等权利外,应该加强对技术提供者和使用者的监管,确保合规应用。当然,在规范和治理方面,应从鼓励技术创新、加快制度构建和强化监管策略三个维度入手,通过完善法律法规、支持合法技术研发、加强跨部门协作,确保AI换脸技术的合法使用与健康发展。”
  AI技术的发展是把双刃剑,我们在享受有利的一面带来的便捷时,也应该避免不利的一面带来的危害。目前,我国对AI技术的法律规定集中在数据保护、网络安全等方面,对AI技术滥用的具体行为没有明确法律界定。针对AI领域的司法治理仍有进一步细化的空间。
  中央网信办、工业和信息化部、公安部联合下发的《互联网信息服务深度合成管理规定》(以下简称《规定》)于2023年1月施行,该《规定》是我国目前针对“AI换脸”技术等深度合成服务的专门性规章。《规定》对深度合成服务提供者、使用者及应用程序分发平台应当履行的义务等作出了原则性规定,旨在引导技术开发者、服务提供者和应用者遵守法律规定和科技伦理道德,培育积极健康、向上向善的研发、应用环境。但并未列举“AI换脸”技术的应用范围,也未对其使用者设定资格条件。
  陈京春建议,应进一步强化法律制度供给,创新规则供给制度,同时发挥好硬法规则原则性、方向性的稳定权威规制特性及软法规则小而精、快而准的迅捷灵活治理特性,以科学的法律、法规体系为人工智能术框定红线、底线,指明发展应用的主要行业方向。
  此外,他还表示,在可预计的未来,人工智能技术将渗透到社会生活的每一个角落,对人工智能技术引发的风险治理,难以单靠政府部门一己之力或司法部门单打独斗。实际上,技术开发、技术应用、网络平台、传播主体等,都应当是治理责任传导链的重要主体,应激励自治动力、培育共治价值、增强自律规制,进一步压实行业主体责任。
  人工智能的发展与治理,已经走到关键的十字路口,网络诈骗、数据泄露、数据滥用、侵犯隐私、深度伪造、虚假信息等都成为AI治理的重要议题,期待相关法律法规和治理规则体系的完善和人工智能安全水平的提高,一起推动AI健康发展。
  ● 责任编辑:王健