人工智能生成高质量内容生态的体系化治理

  生成式人工智能内容生态的治理不能仅靠平台规则和技术手段,亟须制定一部体系化的总则性规范加以规制。我国在推进立法过程中可以考虑将协同治理、伦理治理、敏捷治理等机制进行体系化整合。


  人工智能生成内容正在深刻改变互联网的内容生态。近期,一则“利用AI写公众号年赚200万”的话题登上热搜,微信随即启动专项清理,重申强化运营规范,禁止利用AI替代真人创作。4月3日媒体报道,广州互联网法院判决一起财经博主利用AI编造虚假文章的侵犯名誉权案;4月10日,国家网信办等五部门联合公布《人工智能拟人化互动服务管理暂行办法》,促进人工智能拟人化互动服务健康发展和规范应用……平台治理、司法裁判和行政立法日益强化对人工智能有关生成内容的监管。这将已酝酿数年的问题又推到台前:当内容生产的边际成本趋近于零,现行法律体系能否有效回应由此带来的低质量内容产出及由此造成的信息生态失序问题。


  内容生态的失序与平台治理的局限 

  大语言模型能力的提升,使得批量内容生产的技术门槛越来越低,一人操控数十个账号、日产数百篇文章的“内容农场”模式在各平台蔓延。这些文章在形式上逻辑通顺、排版整齐,但彼此高度雷同,信息价值极低。

  媒体调查核实显示,所谓“利用AI写公众号年赚200万”中的绝大部分收入并非来自流量分成,而是向学员收取的培训保证金,其商业模式的本质在于利用信息差赚钱而非通过创作的内容变现。但该事件折射的问题远不止于商业伦理,而是当大量同质化低价值内容挤占信息通道时,可能引发真人创作者在流量竞争中处于结构性劣势地位,这将使以内容原创为主的激励机制遭受根本性侵蚀。经济学中的“柠檬市场”理论可以很好地解释该现象,即当消费者因为信息不对称无法区分优质品和劣质品,优质品的供给者就会逐步退出,市场整体质量将持续下滑。目前,智能经济的内容生态正在经历类似过程。

  对此,各平台虽然迅速开启了治理行动,但也暴露了其自治的内在局限。微信新增运营规范,明确禁止利用AI的非真人自动化创作行为,并将传播相关教程和方法一并纳入规制范围;今日头条升级AI内容信用分管控;抖音、小红书和哔哩哔哩(B站)也相继推出AI生成内容的强制标识机制。然而,各平台标准不一、力度参差不齐。实践中,有的账号通过跨平台迁移规避平台监管,而部分使用第三方排版工具的真人创作者也遭到了误伤,这进一步凸显了AI辅助创作与AI替代创作之间界限模糊的现实。平台治理的本质在于准确、严谨执行企业主体规则,但禁止AI替代真人创作的边界如何划定、AI辅助与AI替代的区分标准何在等问题,法律还没有给出标准答案,亟须深入探讨。 


  虚假信息的扩散与法律规制的碎片化  

  与低质内容泛滥相比,AI幻觉对社会秩序构成的威胁更直接。AI幻觉是指大语言模型生成的内容在语法、逻辑和风格上看似合理,但在事实上不准确、不存在或与提供的信息源相矛盾的现象。前文提到的广州互联网法院审理的案件正是此类问题的典型代表之一:某财经博主使用AI生成一篇超过万字的文章,其中对某上市公司“犯罪细节”的描述事实清楚、细节丰富,但全部由AI凭空编造,法院判令其承担侵权责任。该案在司法层面确认了一项基本原则,即AI工具的使用者不能以内容系AI生成为由主张免责,但个案裁判的制度供给力相对有限,虚假信息的系统性治理还需更完备的规范支撑。

  从治理规范建设角度看,我国近年来已密集出台了一系列加强对AI内容治理的规范。《人工智能生成合成内容标识办法》建立了显式标识与隐式标识并行机制,要求传播平台核验文件元数据中的标识信息;《人工智能拟人化互动服务管理暂行办法》将治理范围从内容端延伸到交互端,要求AI服务提供者不得以拟人化方式误导用户;《生成式人工智能服务管理暂行办法》明确了AI服务提供者的义务体系;《人工智能安全治理框架》2.0版提出风险分类分级治理的系统性框架。2026年2月,网信部门对传播无AI标识的虚假信息开展专项整治,依法处置账号1.3万余个,清理违法违规信息54万余条。但这些规则散见于不同规章和执法之中,彼此之间的衔接还不顺畅。敏捷治理、协同治理、伦理治理、分类分级治理等概念在不同文件中各有表述,但内涵和边界没有统一,体系化程度还不够。我国网络治理形成了从建立综合治理体系到健全综合治理体系的过程,人工智能时代的内容生态治理也应当借鉴这一经验,将零散的规则整合为相互协调的制度集合。  


  著作权制度的适配与创作激励的重构 

  人工智能生成低质量内容的泛滥,除对社会认知构成威胁外,还对现行著作权制度带来新的挑战。从输出端来看,现行著作权法以人类创作者为预设主体,当创作行为从人转变为算法,制度运行的基本前提是否应发生调整?北京互联网法院办理的全国首例“AI文生图”著作权侵权案给出了一个重要裁判思路:当用户在提示词设计、参数调整、筛选修改等环节投入实质性智力贡献时,AI生成内容可以构成著作权法意义上的作品。这一裁判的实质是从形式上的作者身份判断转向实质上的智力投入判断。学理层面的讨论逐渐聚焦于一个分层的确权方案:用户仅下达简单指令无法对人工智能生成内容享有著作权,但以复杂指令和多重筛选形成个性化结果则可以享有著作权。这一思路兼顾创作激励与公共利益,但“简单”与“复杂”的界限如何划定、智力贡献的举证责任如何分配等问题仍值得探索。

  从输入端来看,《生成式人工智能服务管理暂行办法》要求使用合法来源的数据,但模型训练逐一获取海量数据授权成本极高,完全放任又会动摇创作激励的基础。与输出端的确权逻辑不同,输入端的核心问题在于合理使用边界的重新界定,即为训练AI而使用作品在何种条件下构成合理使用?杭州互联网法院办理的“奥特曼案”中指出,训练数据来源合法且训练内容未对原作品形成实质性替代前提下,训练行为具有构成合理使用的空间。这些个案探索为人工智能内容生成和产出规则形成提供了有益积累,但距离明确稳定的制度框架仍有距离。可见,著作权制度设计不仅是一个法律问题,更关乎产业发展、为优质内容提供高质量创作激励等问题。 


  探索内容生态体系化治理  

  总体来看,生成式人工智能内容生态的治理不能仅靠平台规则和技术手段。当前,以民法典为基础,涉知识产权法、竞争法等多项部门法律及规章为支柱的规范格局,亟须一部体系化的总则性规范加以整合。从比较法角度看,欧盟人工智能法案以风险分级为核心理念构建了系统化的内容和行为监管框架,韩国人工智能基本法则侧重产业发展与权利保护的平衡。我国在推进立法过程中可以考虑将协同治理、伦理治理、敏捷治理等机制进行体系化整合。平台之间的协同机制也亟待建立,避免违规者通过跨平台迁移规避监管,技术手段可以为人工智能生成内容治理提供支撑,但必须纳入法律规范框架之内。当然,制度建设的推进不会一帆风顺,技术迭代的速度远超立法进程,平台之间的标准分歧短期内难以弥合,但这恰恰说明法治介入的紧迫性。

  事实上,应该进一步思考的是:机器可以批量生产内容,人的创作价值何以保障?虚假信息可以工业化制造,而社会认知获取渠道和基础何以维系?法律要守住的底线其实并不复杂:公众有权知道自己接收的信息是否由机器生成,创作者有权不被算法无限量地复制和稀释自己的劳动成果,社会有权维护一个真实可信的信息环境。守住这些底线,既是对信息传播秩序的维护,也是维护人在技术面前的主体尊严。

  (作者单位:北京大学智能学院)