
破解AI短剧“维权难”“审核疲”困局
压实制作方把关义务,构建多方协同共治体系
近年来,AIGC(人工智能生成内容)技术实现爆发式发展,深度融入短剧剧本创作、内容制作、宣发运营全产业链条,也催生了一系列全新的版权保护与行业治理难题,这类侵权具有数量大、频次高、隐蔽性强、传播迅速等特点,不仅侵害权利人的合法权益,更对平台治理和行业健康发展构成挑战。
针对这些前沿法律与治理议题,近日,中国人民大学法学院举办“AI短剧版权保护研讨会”,法学专家与行业从业者聚焦肖像侵权、声音侵权、内容侵权等核心议题,就治理节点前移、主体责任压实、“通知—删除”规则优化、多方协同共治机制构建等关键问题展开深入研讨,旨在摆脱治理困境,为AI短剧产业高质量发展保驾护航。
AI短剧治理难度显著提升
AI短剧凭借新颖剧情与紧凑节奏快速占领市场,又因制作成本低、生成效率高成为行业新风口,但侵权争议也随之而来。相较于传统内容侵权,AI短剧领域的侵权问题更为复杂多元,治理难度尤为突出。北京大学法学院教授、北京大学人工智能研究院双聘教授张平表示:“通常AI生成的内容并非对原素材的完全复制,这种‘似像非像’的特征成为侵权认定的主要难点。”
中国新闻文化促进会副会长、微短剧传播与应用评测体系“繁星指数”专家组组长陆先高介绍,AI肖像侵权主要表现为四种情形:一是完全AI生成;二是定向AI生成,通过关键词引导生成高度相似的形象,属于间接“偷脸”,主观侵权故意更为明显;三是直接AI换脸,逼真度高,侵权认定相对清晰,但追责与侵权内容清理难度较大;四是“缝合脸”或AI融脸,融合多人面部特征,侵权定性最为复杂,争议也最大。
侵权方式的多样性与隐蔽性,直接导致侵权认定和平台治理陷入重重困境。“AI肖像侵权的新型特征,对现有识别与认定标准形成实质性冲击,传统技术手段难以实现有效的事前预判与拦截。”中国社会科学院大学互联网法治研究中心主任刘晓春表示,这一困境主要体现在三个方面。其一,“可识别性”判断标准缺乏统一性,AI合成人脸多经过特征修改与细节调整,并非完全复刻原貌,难以沿用传统标准判定侵权,目前行业尚无统一明确的审核规范;其二,混合人脸与动态画面增加审核难度,部分合成形象融合多人特征,无明确对照原型,可能与多人相似却无法精准对应,加之短剧动态画面中人脸特征随镜头实时变化,进一步加大识别难度;其三,技术与数据支撑不足,行业缺乏成熟的动态人脸比对技术,也无法建立覆盖普通民众的肖像数据库,难以实现全面有效监测。
声音侵权的核心难点同样集中在“似像非像”的认定环节。相较于具备视觉直观性的人脸肖像,声音本身更加抽象且依赖主观感知。特别是对于配音演员而言,其演绎声线往往与日常说话的声音存在差异。要判断合成声音是否侵权,必须综合考量音色、音调以及演绎风格等多个维度,这使得侵权认定的过程变得愈发复杂。
这些认定难点导致棘手的举证困局。在海量侵权投诉中,如仅凭对比截图便主张“高度相似”,将使平台缺乏自主裁断的法律赋权。此时,传统的“通知—删除”规则往往难以顺畅运转,行业亟待构建更为精细化、可操作的举证标准。
压实制作方责任,平衡平台义务与产业发展
多位专家学者认为,AI短剧侵权乱象的滋生,是多主体多环节共同作用的结果,破解这一难题必须厘清各方责任,推动治理模式转型升级。
“AI短剧的生产传播属于‘过程型生产结构’,各环节高度绑定,这种模式使得传统法律框架下的权力配置与责任划分难以适配,进而出现责任失衡问题。”暨南大学国际传播研究院院长、清华大学新闻与传播学院教授陈昌凤表示,当前治理多聚焦于内容审核与事后处置,无法从源头遏制侵权行为,因此必须推动治理节点前移,实现从事后处置向全过程监管的转变。
陈昌凤建议,合规要求应贯穿以制作方为核心的全创作流程,而非仅依赖平台对最终内容进行被动审核,真正实现从事后认定到全过程规制的升级。同时,推动责任分配从单点追责转向多主体协同分担。她强调,AI短剧版权问题并非传统影视侵权的简单延伸,而是新型生产方式引发的制度性问题,仅靠局部修补无法根治,亟须构建适配技术发展与产业现实的全新规则体系。
民法典确立的“通知—删除”规则以及关于网络服务提供者责任的相关规定,是界定平台责任的重要法律依据,但在AI时代,这些规则的适用面临全新挑战。对此,专家学者围绕规则的优化与落地展开了深入探讨。
一方面,专家普遍认为应精准适用现有“通知—删除”规则,合理界定平台责任边界。
“探讨AI短剧版权侵权的平台责任,主要分为两种场景:一是短剧聚合平台对用户上传的涉嫌抄袭的短剧的责任;二是其他网络平台对用户传播盗版短剧的责任。”中国政法大学教授、北京市文化娱乐法学会版权法研究专业委员会主任陶乾表示。
她认为,在聚合平台场景下,平台对元素侵权、抄袭的认定须具备专业判断能力,事前防范应以适度为原则,充分运用“通知”“转通知”规则,为各方预留合理缓冲空间,既不加重权利人的举证投诉负担,也不要求平台承担超出能力范围的实质审查义务;在其他网络平台场景下,平台需依照信息网络传播权保护条例与民法典相关规定,对用户传播的盗版内容承担相应义务和责任。司法机关对盗版黑灰产从严从快处理,通过诉前禁令、足额赔偿等方式强化版权保护,针对存储、链接类平台,需建立便捷高效的投诉处理机制。
中央民族大学法学院教授熊文聪也提出,平台处理AI短剧侵权投诉时,应严格执行“通知—删除”规则,同时可赋予平台对通知内容的初步审查权。此举虽会增加平台运营成本,但若不做任何审查,既可能影响平台正常运营,也可能因恶意通知损害创作方与产业利益。他同时强调,不应因平台初步审查未识别出侵权内容就追究其责任,只要平台已投入合理成本、履行审慎注意义务,就不应推定其存在主观过错。
另一方面,从长远发展来看,“通知—删除”规则及其适用仍需进一步优化完善。中国人民大学法学院院长杨东表示,现行网络版权侵权责任体系以“直接侵权”与“间接侵权”划分为基础,平台责任以“明知”或“应知”为过错要件,但面对平台日均千万级的内容增量、权利人难以有效“通知”,以及著作权侵权判断的复杂性等现实情况,“明知”标准易被虚化,“应知”的推定边界也较为模糊。
“人工智能时代的版权审核困境,本质上是工业经济时代规则与数字技术场景的适配性危机。”杨东指出,诞生于工业经济时代的“通知—删除”规则,已逐渐难以适应AI时代发展需求,加之AI自动审核存在天然局限性,不应将全部审核责任转嫁于平台企业。
刘晓春则提出更具实操性的优化路径:规范AI短剧发展,需立足产业实际与权利保护,理性划定平台责任,构建分类施策、协同高效的治理机制。审核层面,平台可建立分类分级审核机制,针对公众人物肖像等侵权高发场景,搭建特征数据库,通过技术手段主动预警拦截;对于普通民众肖像等非高频监测场景,不强制要求事前全量比对,通过平台规则强化创作者的维权保护义务,同时优化“通知—删除”规则,搭建便捷维权通道、简化维权流程,接到有效通知后及时下架、屏蔽侵权内容。此外,平台还应完善侵权账号惩戒机制,对恶意侵权、屡次违规账号采取限流、封禁等措施。
多方协同共治,积极应对AIGC产业发展新挑战
AI短剧产业发展势头迅猛,给监管、司法实践和平台治理都带来了巨大压力。推进短剧行业全链条合规治理、构建多元共治格局,成为专家学者的一致共识。
北京理工大学法学院教授、北京市文化娱乐法学会常务副会长刘毅强调,应充分发挥行业协会作用,推动规则制定与立法协同。当前,AI生成内容的权利归属、侵权认定标准等存在争议,已成为制约产业发展的重要障碍。因此,行业协会应牵头联合法律、产业、技术领域专家,尽快出台团体标准或行业指引,在立法与司法解释正式出台前,为市场提供可落地的合规依据,覆盖生成内容标识、权属存证、侵权比对、平台注意义务等关键环节,实现“全环节有标准、全标准可落地”。
行业自律层面,刘毅建议,行业协会可建立全链条主体信用档案,记录制作方侵权情况、平台处置效率、技术方合规表现等信息,面向会员与公众开放查询;对严重违规、屡次侵权主体实施通报批评、暂停会员资格、列入行业黑名单等联合惩戒。同时,行业协会应积极向立法、司法机关提交修法建议与裁判指引,提出切实可行的解决方案。
陶乾补充道,短剧版权治理需要多方联动、行业共治。行业治理层面,全行业应凝聚共识,可以由行业组织牵头制定素材使用规范、AI短剧创作指引;素材合规层面,相关部门可搭建合规素材库与作品池,建立公平高效的授权机制;就AI短剧的版权保护而言,形成剧本、提示词脚本、场景图等素材以及视频生成过程的存证机制;平台治理层面,推动短剧权利人与网络平台建立版权共治体系,将权利人作品纳入内容比对系统,探索广告分成等良性合作模式,助力行业可持续发展。
