AI换脸深度伪造技术滥用现状及规制路径探析
近日,山东青岛牟女士被AI(人工智能)合成不雅视频事件引起广泛关注。据媒体报道,牟女士受网友骚扰后发现网络上出现大量利用AI技术恶意合成的虚假视频及与其面部局部相似的视频,对其进行侮辱和诽谤,严重影响其正常生活。事实上,这仅仅是AI换脸等深度伪造技术滥用的冰山一角,今年全国两会期间,中国工程院院士张伯礼就痛陈其形象声音被冒用甚至滥用。显然,AI换脸等深度伪造技术的滥用时有发生,如何有效规制是一个非常紧迫的现实问题。
AI换脸深度伪造技术滥用的违法现状
AI换脸等深度伪造技术滥用,在民事侵权、行政违法及刑事犯罪领域均有涉及。技术滥用最直接的受害者是普通个体。以牟女士遭遇为例,未经权利人同意,将其形象通过技术合成至不雅视频或特定场景中,是对其肖像权、名誉权、个人信息权益及隐私权的侵犯,甚至扰乱私人生活安宁,造成受害者“社会性死亡”。更严重的是,技术滥用走向刑事犯罪,特别是利用AI换脸软件制作、传播淫秽物品牟利。比如,从非法收集人脸信息,到批量合成虚假视频,再到提供定制服务与销售软件,最终形成了黑色的产业链。
AI深度伪造内容在网络上通常具有较高的扩散速度,严重破坏网络生态健康秩序。在群组、论坛、社交媒体中,此类伪造内容如病毒般扩散传播,其速度远超传统“口口相传”的谣言,而平台监管的滞后性使得违法信息难以被及时清除,容易形成“发布—传播—伤害—难删除”的恶性循环。
AI换脸深度伪造技术滥用规制面临的问题
导致AI换脸等深度伪造技术滥用难以有效规制的原因是多方面的,但其核心症结在于“违法成本”与“维权成本”的失衡,加害者代价低,受害者追责之路艰难。
其一,技术成本低。目前,基础的AI换脸操作可以说几乎没有门槛,开源模型、廉价软件、在线教程使得“人人皆可换脸”成为现实。几元到几十元,几分钟到几十分钟,即可生成以假乱真的内容,这使得任何人都能轻易获得“作案工具”。与低技术成本形成强烈反差的是其带来的高流量与高收益,在这种低成本高收益的引诱下,潜在的违法群体极易扩张。
其二,取证、查证难。这是造成AI换脸等深度伪造技术滥用违法成本低的直接原因之一。一方面,对于受害者而言,证据保全困难。AI伪造内容瞬息即可在互联网上扩散、变异、删除,个人难以全面追踪和固定证据,即便如牟女士般迅速进行证据公证,也往往只能抓住冰山一角。另一方面,对执法与司法机关而言,溯源查处困难。违法行为人利用匿名账号、境外服务器等手段隐藏身份,使得责任主体确定难。电子证据的易篡改性与技术鉴定的专业性,也对执法司法资源与技术能力提出了极高要求。许多案件最终因“查不到人”或“证据不足”而不了了之,使得有的违法者逍遥法外。
其三,处理结果偏轻,法律威慑力有待提高。即使违法行为人被查处,其所承担的法律后果也往往与受害者承受的巨大伤害不成正比。比如,在牟女士案中,传谣者丁某仅被行政拘留5日。相较于受害者全网“社死”、工作生活受创、承受长期心理压力的代价,这样的处罚显得微不足道。在民事赔偿中,精神损害赔偿数额也常难以完全弥补受害者的实际损失。在刑事层面,如浙江杭州的虞某利用AI伪造女明星涉黄案中,虽然虞某被判处有期徒刑7年3个月,并处罚金6万元,但该判罚针对的是“制作、传播淫秽物品牟利”这一行为,而对于大量非牟利性的、但同样恶劣的诽谤侮辱行为,刑事门槛较高,难以入罪。这在一定程度上助长了犯罪嫌疑人的侥幸心理,削弱了法律的威慑力。
AI换脸深度伪造技术滥用的规制路径
要破解困局,必须系统施策,从事前预防、事中监管到事后追责,构建起全链条治理体系。其核心在于大幅提升违法犯罪成本,降低维权成本。
首先,在技术源头强化治理。一方面,要强化AI开发者与提供者的责任,全面落实《人工智能生成合成内容标识办法》的规定与配套的强制性国家标准,严格执行“隐式标识(元数据嵌入)”要求,以便在发生滥用时能够快速追溯至生成源头。另一方面,实施严格的身份认证。对于提供深度合成服务的平台,应对其用户进行强制实名认证,确保每一个生成请求都能对应到现实中的责任人,从源头上解决“匿名作恶”问题。在技术设计推行之初,应将伦理与法律规范嵌入其中,例如设置使用协议,明确告知用户滥用技术的法律风险,并对敏感操作如人脸替换进行二次确认与风险提示。
其次,加强平台责任。网络平台是遏制技术滥用的关键环节,必须承担起与其技术能力和收益相匹配的社会责任。在我国,处理网络服务侵权纠纷的一般规则为“通知—删除”规则。根据《中华人民共和国民法典》第一千一百九十五条之规定,当发现有网络用户利用网络服务实施侵权行为时,权利人有权将包括构成侵权的初步证据及侵权人的真实身份信息等对网络服务提供者予以通知,而网络服务提供者则应及时将通知转送相关网络用户,并根据通知采取删除、屏蔽、断开链接等必要措施。我国的“通知—删除”规则覆盖所有网络侵权纠纷,能够较为全面且迅速地对网络侵权作出反应,但当前阶段,发达的技术使得权利人获取初步证据、相关网络用户信息更为困难,而网络服务提供者仅仅只是在事后针对某一通知采取删除措施是远远不够的。诚如有论者所言,往往删除一个又冒出一个,如同“打地鼠”游戏。长此以往,权利人疲于应对,平台也易因“通知—删除”的免责规定而逃避其他义务和责任。针对AI换脸深度伪造技术滥用行为,平台一方面应建立高效的内容识别与处置机制,如积极投入资源研发或引入先进的AI鉴定工具,对疑似深度伪造的内容进行主动识别、打标签和限流。同时,应建立针对处理此类侵权内容的“绿色通道”,确保在接到举报后能够第一时间核实并删除,阻断传播。另一方面,应完善用户投诉与救济渠道。如简化投诉流程,提供专门的AI伪造内容举报入口,协助受害者进行证据固定与后续维权等。此外,监管部门应落实对平台的“守门人”处罚。对于未尽到审核与管理义务,导致违法信息大量传播的平台,有关部门应依法予以重罚,倒逼平台提升内部治理水平。
最后,完善法律责任追究体系。法律应让违法者付出沉重代价。一要加快完善相应法律法规。要适时推进专门立法,明确各方权利义务,细化技术提供者、使用者、平台等主体的法律责任,为规制工作提供更直接、更强大的法律支撑。对于滥用AI换脸、拟音等深度伪造技术的违法犯罪行为,除要求行为人承担相应责任外,还可以结合其利用互联网传播的特性完善相应惩罚措施。比如,可以增加与完善适用“网络禁言”和“失信惩戒”两种针对性极强的惩戒措施。通过“声誉罚”提高违法犯罪成本,更好地发挥法律的威慑作用。二要加强行政执法与刑事司法的衔接。对虽未达到刑事犯罪标准,但情节恶劣的侮辱、诽谤行为,公安机关在行政处罚上可顶格处理,增强行政制裁的威慑力。三要降低维权门槛。建议推广如区块链存证技术等电子证据固证存证技术,降低受害者的举证成本。四要加强对公众的普法宣传教育工作。大力开展网络素养、网络行为的规范教育活动;鼓励网络谣言、网络暴力的受害人勇敢维权,积极寻求法律帮助;鼓励公众在见到疑似网络谣言等网络暴力行为时保持理性客观,不信谣、不传谣,并积极举报,既不做盲目的转发者,也不当“沉默的大多数”。
总之,AI技术应恪守“以人为本,智能向善”的原则,通过预防、监管、追责的全链条治理防止滥用,确保技术发展服务于人、造福于人。
(作者单位:广州大学法学院)

