行动型AI背后的数据风险及其法治保障

  以OpenClaw为代表的行动型AI,突破对话型AI的局限,具备环境感知、决策制定与物理执行能力。它在高权限加持之下,可以自主浏览网页、读写本地文件、执行系统命令等。这使用户要承受“高度放权”所导致的数据隐私泄露风险,亟须各方协同发力,以法治方式保障其规范发展。


  当下,“养龙虾”成为人工智能技术爱好者圈子最火热的潮流。这里所谓的“龙虾”是指OpenClaw的开源智能体项目,因其官方Logo是一只红色的卡通小龙虾,国内许多人工智能技术开发者便将部署和训练这个AI助手的过程戏称为“养龙虾”。

  传统对话型AI以自然语言处理为核心,通过文本或语音完成信息交互,为人类提供智能客服、文本生成等。以OpenClaw为代表的行动型AI,突破对话型AI的局限,具备环境感知、决策制定与物理执行能力。即,在高权限加持之下,它可以自主浏览网页、读写本地文件、执行系统命令,甚至在没有人工干预情况下完成复杂的在线操作。这使得用户在享受技术红利的同时,也要承受“高度放权”所导致的数据隐私泄露风险,亟须各方协同发力,以法治方式保障其规范发展。


  “权限让渡”背后的数据安全风险

  OpenClaw作为新兴技术产品,还存在诸多不完善之处,在“权限让渡”放大情况下,其在部署、扩展、使用的全过程中都可能存在数据泄露与滥用隐患。

  其一,在部署环节,可能存在密钥暴露或安全后门风险。在云端部署场景中,为了方便远程控制,用户往往需要开放公网端口、降低访问控制门槛,这相当于将自己数据库的钥匙挂在公共场所,任何人都可尝试开门;而在本地部署场景中,用户虽避免了云端的数据外泄风险,但由于OpenClaw具备持久化记忆能力,会记录用户的工作习惯、文件路径甚至账户密码,如果设备被他人物理接触,或者OpenClaw的本地数据库文件被拷贝,这些敏感信息将面临暴露风险。

  其二,在功能扩展环节,可能存在插件污染风险。OpenClaw支持丰富的技能插件(Skills)生态,用户可以从ClawHub(OpenClaw的公共Skills注册中心。这里的Skills都是免费的、公开的、开放的,可以查看、共享和复用)安装各种扩展功能。但作为开源论坛,ClawHub的安全审查机制尚不完善,恶意插件可能伪装成有用工具,窃取数据、植入后门。

  其三,在使用环节,可能存在行为不可控风险。OpenClaw的核心亮点在于“能做事”,诸如发邮件、购物、炒股转账等涉及财产安全、数据安全的行为都可以独立完成。但这种深度集成的便利性,恰恰构成最大安全风险。例如,当用户发出“处理邮件”此类模糊不清的指令时,OpenClaw可能将包含敏感信息的邮件转发给他人。更令人担忧的是,网络攻击者可能在网页中隐藏恶意指令,指示OpenClaw自动执行泄露数据的操作。

  此外,OpenClaw的数据安全风险还具有显著的外溢效应,即还可能波及他人的数据安全。例如,某企业在本地服务器部署OpenClaw让其辅助处理客户邮件,OpenClaw会读取、分析、存储这些包含客户个人信息的邮件内容。依据《中华人民共和国个人信息保护法》第二十一条第一款规定,“个人信息处理者委托处理个人信息的,应当与受托人约定委托处理的目的、期限、处理方式、个人信息的种类、保护措施以及双方的权利和义务等,并对受托人的个人信息处理活动进行监督。”此处的“受托人”角色已悄然由传统人工客服或外包公司转变为具备自主执行能力的AI智能体,而在智能体尚未成为法律适格主体之前,智能体所导致的法律责任仍应由使用者承担。换言之,OpenClaw的使用者存在侵犯他人数据安全的风险。


  行动型AI对现行数据法律体系的挑战

  作为人工智能技术的最新成果,OpenClaw可以提升社会生产效率,但也对现有数据安全法律体系提出诸多挑战。

  其一,高权限自动运行AI冲击处理个人信息的“最小必要原则”。我国个人信息保护法第六条规定,“处理个人信息应当具有明确、合理的目的,并应当与处理目的直接相关,采取对个人权益影响最小的方式。收集个人信息,应当限于实现处理目的的最小范围,不得过度收集个人信息。”但在行动型AI的运行逻辑中,为了提供更综合泛化的个性化服务,AI往往需要持续读取用户设备中的通讯录、邮件、文档乃至屏幕内容。这种为了“潜在任务”而进行的无差别广域数据抓取,与现行法律要求的“直接相关”“最小范围”直接冲突,“最小必要原则”在行动型AI场景中面临根本性挑战。

  其二,数据侵权的责任主体认定陷入困境。在传统侵权责任结构中,责任链条相对清晰、责任主体也相对明确。但当OpenClaw的行动导致第三人数据泄露时,模型的原作者可援引“开源免责条款”进行抗辩,提供技能插件的第三方开发者也往往无法被有效追溯,而终端用户则声称自己只是工具使用者,缺乏预见技术后果的能力。这种去中心化的开发部署模式导致责任主体模糊,进而加剧了现行法律直接适用的难度。

  其三,数据出海与国家数据安全的隐患。OpenClaw的部分底座模型依赖于海外模型API(应用编程端口),若在自主执行任务过程中,将包含敏感信息的数据上传至境外服务器,可能违反我国数据安全法、网络安全法等法律关于数据出境的规定,威胁国家层面的数据安全。


  构建适应行动型AI的数据安全法治体系

  面对“养龙虾”导致的系统性数据安全风险,建议通过敏捷治理、沙盒监管与规则嵌入等,构建灵活的响应机制。

  其一,全面引入“敏捷治理”理念,用柔性规则弥补刚性法律的监管空白。面对OpenClaw等开源框架引发的数据安全风险,监管部门可使用行政指导、合规指南、风险提示等“软法”工具进行“敏捷治理”。“敏捷治理”的核心逻辑在于“快速响应、动态调整”。网信、工信等部门可联合头部科技企业和开源社区,迅速建立数据安全威胁信息共享与快速响应机制;通过定期发布“执行型AI数据合规白皮书”或“智能体权限调用负面清单”等,为行业划定阶段性安全红线。一旦发现某类新型提示词注入,会导致特定规模的数据泄露,监管机构可以迅速启动指导性阻断策略。这种兼具灵活性和自适应能力的柔性治理机制,可以快速应对技术突变问题。

  其二,探索实施“沙盒监管”,在试错空间中平衡创新红利与数据安全。“沙盒监管”是指通过划定可控范围对范围内主体采取包容审慎的监管措施。监管部门可建立“行动型AI数据安全监管沙盒”,允许开发者在受控的虚拟环境和真实场景的有限数据集合中,测试AI对本地数据的调用和处理逻辑。在沙盒内,AI可以尝试接管系统或调用API,但所有数据的留存与传输都要被严格监控和审计。只有经过沙盒测试,证明其具备权限隔离能力、不违规向境外回传敏感数据、且符合“最小必要”原则的AI应用,才能获得合规认证并推向公众市场。这样不仅可以将风险控制在最小范围,还可以为未来法律的修订积累宝贵的经验。

  其三,将法律规则嵌入代码架构。在代码建构的数字空间中,代码本身便是行动的指引与规制。法律关于数据安全的原则规定必须转译为人工智能无法绕过的底层架构要求,即“设计即安全”。例如,在架构上硬性切断AI全局获取系统Root权限的可能,将数据安全法中的分级分类保护制度,直接具象化为API接口的访问控制列表(ACL)。当法律的红线被编译为不可篡改的代码指令时,AI的每一次操作都会被锁定在法治的框架之内。

  OpenClaw是否可以带来生产效率的变革仍有疑问,但随之而来的数据安全需求无法忽视。无论技术如何发展,我们都必须主动适应、强化动态治理。唯有如此,才能保障技术向善,真正实现“让龙虾在合规的水缸里自由游动”。

  (作者单位:中共江苏省委党校法政教研部)