人工智能生成合成内容的标识义务及制度优化

  9月14日发布的《人工智能生成合成内容标识办法(征求意见稿)》及其配套的强制性国家标准,通过对人工智能生成合成内容的标识,构建安全、透明、可信的网络环境,完善网络内容治理,促进生成式人工智能技术健康发展。


  9月14日,国家互联网信息办公室发布《人工智能生成合成内容标识办法(征求意见稿)》(以下简称《标识办法》)、中央网络安全和信息化委员会办公室发布的配套强制性国家标准《网络安全技术 人工智能生成合成内容标识方法(征求意见稿)》(以下简称《标识标准》)公开征求意见,进一步规范人工智能生成合成内容标识,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。这标志着我国在人工智能生成合成内容治理领域又迈出了关键一步,将通过对人工智能生成合成内容的标识,构建安全、透明、可信的网络环境,完善网络内容治理,促进生成式人工智能技术健康发展。


  人工智能生成合成内容的风险及治理挑战

  近年来,生成式人工智能技术的飞速发展与广泛应用,在极大提升内容创作效率的同时,也带来了诸多风险与挑战。随着人工智能生成合成内容日益逼真,使公众难以辨别真伪,易引发虚假内容泛滥、深度伪造等问题,成为网络内容治理的一大难题。例如,人工智能生成虚假新闻误导公众、生成恶意内容损害个人名誉,及人工智能换脸技术被不法分子用于诈骗等。这些问题不仅侵犯公民合法权益,扰乱社会秩序,甚至可能威胁国家安全。因此,有效治理人工智能生成合成内容迫在眉睫。

  面对这一挑战,全球监管机构都在探索如何规范人工智能生成合成内容。例如,欧盟的《人工智能法案》要求对特定类型的人工智能生成合成内容进行标识,美国加州的《数字内容溯源标识法案》要求强化人工智能生成合成内容标识的平台责任。内容标识可以在一定程度上提高信息透明度,降低公众被虚假内容误导的风险。我国的《互联网信息服务深度合成管理规定》(以下简称《管理规定》)明确要求深度合成服务提供者对生成合成内容进行标识,《生成式人工智能服务管理暂行办法》也强调了生成式人工智能服务提供者的标识义务。作为配套措施,《标识办法》和《标识标准》进一步细化和完善了人工智能生成合成内容标识的具体要求,填补了国内相关领域的制度空白,为全球人工智能内容治理贡献了中国方案。


  人工智能生成合成内容标识义务的核心要求

  《标识办法》和《标识标准》的核心在于明确人工智能生成合成内容的标识义务,并对标识类型、标识方法、标识义务主体等进行了明确规定。

  第一,明确区分显式标识和隐式标识两种标识类型。根据《标识办法》,显式标识是指在生成合成内容或者交互场景界面中添加的,以文字、声音、图形等方式呈现并可被用户明显感知到的标识。这种标识类型旨在通过直观的方式提醒用户该内容并非由人工创作,从而减少误导。隐式标识则是指采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识。隐式标识不会影响用户的正常使用,但能通过技术手段进行提取,确保内容的可追溯性。这种标识类型可以为内容溯源、侵权追踪等提供技术保障,有助于打击滥用和恶意传播,维护数字内容生态的健康发展。

  第二,根据不同内容和场景细化标识方法,增强可操作性。《标识标准》对文本、图片、音频、视频及交互场景界面等不同类型内容的标识方法进行了详细规定,从标识的形式、位置、大小、颜色等方面都给出了明确指引,并提供了相应的标识示例,极大地增强了其可操作性,为相关服务提供者提供了清晰的实践指南。例如,除了《管理规定》第十七条提到的五类显著标识应用场景外,《标识标准》还涵盖了文生图片、音乐等音频内容生成及文生视频、图生视频等新兴生成式人工智能应用场景,体现了其前瞻性和对技术发展趋势的敏锐把握。此外,《标识标准》针对不同内容类型提出了创新且便捷的标识方式,例如:要求在文本结尾加注“AI”文字角标,在音频起始位置添加表示“AI”的特定节奏摩斯码等。这既兼顾了监管的有效性和用户体验,又在实现监管目的的同时为技术创新和产业发展留出了空间。

  第三,构建生成合成内容标识的全链条责任体系,明确各方主体责任。《标识办法》不仅对人工智能生成合成内容的网络信息服务提供者(以下简称服务提供者)提出明确的标识要求,还基于网络内容治理实践,将用户、网络信息内容传播平台和互联网应用程序分发平台均纳入责任体系,形成多方共治的全链条监管体系,这有助于确保标识要求得到有效落实。具体而言,服务提供者在生成合成服务时,应当按照《管理规定》的要求进行显式标识,并在生成合成内容的文件元数据中添加隐式标识。用户则被赋予上传生成合成内容时的主动声明及标识义务。网络信息内容传播平台负有标识核验义务,需核验生成合成内容是否含有隐式标识,在发布内容周边添加显著的提示标识,提供必要的标识功能,并提醒用户主动声明发布内容中是否包含生成合成内容。这意味着网络信息内容传播平台被赋予在内容传播链条中的“守门人”角色。互联网应用程序分发平台则对应用程序的标识功能负有核验责任。例如,在移动互联网应用程序上架或上线审核时,应用商店需核验服务提供者是否按要求提供生成合成内容标识功能。

  第四,平衡监管与创新的关系,仅为服务提供者施加必要的监管义务。《标识办法》并未采取“一刀切”的严苛监管,而是仅针对可能导致公众混淆或者误认的情形,强制要求服务提供者使用显式标识。服务提供者亦可在与用户签订明确标识义务和使用责任的用户协议后,应用户要求提供不含显式标识的生成合成内容。这些举措较好地兼顾了监管需求和用户体验,避免过度监管阻碍人工智能技术创新和应用。


  人工智能生成合成内容标识制度及优化

  《标识办法》与《标识标准》的发布,是我国在人工智能内容治理领域的重要举措,通过明确内容标识义务及主体,有利于形成多方主体参与、共同规范的全链条内容标识制度,有助于完善现有网络内容治理体系。

  首先,内容标识制度的核心在于以技术标准的完善驱动内容治理,为生成合成内容治理提供可靠方向。尽管在短期内,该制度对服务提供者和网络平台提出了更高的技术要求,但长远来看,内容标识制度具有更重要的意义。笔者认为,该制度的价值不仅体现在降低知识产权争议、保障公众知情权、维护网络空间清朗、减少深度伪造带来的信任危机等方面,还在于借助隐式标识等技术手段追溯内容来源,打击虚假信息传播和人工智能诈骗等违法犯罪行为,从而最终促进生成式人工智能技术健康发展,为技术创新提供坚实的制度保障。

  其次,内容标识制度亟待进一步法治化,以防范潜在的数据安全和隐私泄露风险。隐式标识制度的建立,虽然有助于对违法犯罪行为的责任追溯,但也可能因为相关数据的泄露或身份追踪技术的滥用,为使用者带来隐私风险。因此,在推动内容监管智能化、精准化、高效化的同时,应当进一步将技术标准纳入数字法治轨道,明确标识信息中个人隐私数据的收集、使用和保护规则,建立健全数据安全监管机制,强化个人信息和隐私保护。

  最后,应进一步明确违反标识规定的法律后果,以确保内容标识制度的有效落实。《标识办法》指出,任何组织和个人均不得恶意删除、篡改、伪造或隐匿生成合成内容标识。无论是显式标识还是隐式标识,在实践中都存在被恶意攻击和篡改等风险。有必要进一步完善违规行为的举报机制和技术检测机制,明确各类违规行为的法律责任,细化惩处标准,提高违法成本。只有建立起完善的法律责任体系,才能保障内容标识制度的有效落实。

  (作者单位:吉林大学法学院)