给“AI换脸”划定法律和技术“红线”

  随着人工智能的发展,“AI换脸”技术门槛逐渐降低,应用场景越来越多,在满足人们美颜、社交等需求的同时,因“AI换脸”引发的争议乃至违法犯罪行为屡见不鲜,其背后隐藏的黑灰产业链也逐渐浮出水面。(4月18日《法治日报》)

  “AI换脸”技术作为一项智能工具,具有成本低、效率高、操作简单、应用广等优势,已在影视、传媒、教育等领域实现大规模应用,市场前景广阔。但是,技术是一把双刃剑,如果不当利用,就会产生危害。近年来,“AI换脸”技术频频被一些犯罪分子盯上,犯罪手段也是花样百出,给受害人造成了困扰和经济损失,也在一定程度上引发了社会大众对“AI换脸”技术的恐慌情绪。当前使用“AI换脸”制作搞笑照片和视频的情况最多,此举初衷是为了娱乐、商业营销,但涉嫌侵犯肖像权、名誉权,造成严重后果的,还可能构成侮辱罪或者诽谤罪。近日,一男子通过“AI换脸”伪造女明星淫秽视频牟利被公诉。前不久,网上还爆出广州一女子的地铁照片被“一键脱衣”的新闻。还有部分不法分子用“AI换脸”制造所谓“私密照片”,对当事人实施敲诈勒索。

  任何技术都是双刃剑。随着技术的成熟,曾经只有在科幻电影里才能出现的换脸、变声等“黑科技”走进了现实生活,但是也带来了新的伦理问题。“AI换脸”技术本身是中立的,但滥用行为挑战了法律和公序良俗的底线,不可纵容。恶意使用“AI换脸”技术的案例频频发生,表明“AI换脸”技术已被非法滥用,违背了技术发展的向上向善原则。因此,需要对“AI换脸”作法律和社会道德伦理审查,并尽快制定完善技术发展和应用标准,给其划定法律和技术“红线”,对其予以规制,引导“AI换脸”合规发展,防范不当使用。

  近年来,面对亟待治理的深度合成技术应用乱象,我国已陆续出台相关法律法规。《网络音视频信息服务管理规定》提出,对“非真实音视频信息”应当以显著方式予以标识,不得利用基于深度学习、虚拟现实等的新技术新应用制作、发布、传播虚假新闻信息。《互联网信息服务深度合成管理规定》明确,提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能服务的,应当进行显著标识,避免公众混淆或者误认。

  因此,“AI换脸”服务提供商要履行法律义务,在发布相关图片、视频时,应当在显著位置标注“人脸合成”字样,以尽提示和标识义务,提醒大众不要轻易相信内容。在使用他人面部信息制作图片、影视频素材时,应征得对方同意,并详细说明使用目的、范围、传播途径等,避免造成侵权。同时,需要控制住技术源头,可利用区块链技术,在作品里留下“技术水印”,实现可追溯、防篡改等。此外,用户要树牢法律意识,对涉嫌存在法律风险的“AI换脸”视频积极进行举报,倒逼“AI换脸”服务提供商遵守法律法规,以实际行动促进“AI换脸”技术向上向善。