报告指出,随着OpenClaw的GitHub星标突破30万,AI驱动助手正加速走向实际应用。但其从边缘项目到大规模部署的快速演进,也使早期基于“本地可信环境”的安全模型难以适应复杂场景。数据显示,在2025年11月至2026年3月期间,OpenClaw累计产生280条安全公告及100个以上CVE漏洞,反映出AI智能体在真实环境中的安全挑战。
OpenClaw演化与爆发式增长情况
此外,在20余个消息平台的身份绑定机制中,由于使用可变属性及缺失Webhook验证等授权机制设计问题,导致允许列表(Allowlist)被频繁绕过,相关问题已形成约60条安全公告。
在执行层面,策略校验与实际执行之间存在偏离。由于强制执行机制未对指令解析后的最终形态进行校验,攻击者通过参数缩写即可绕过基于精确匹配的拒绝列表,导致预设的安全边界在实际运行中失效。
供应链与部署风险:攻击面持续扩大
此外,部署配置风险同样不容忽视。数据显示,在82个国家发现超过13.5万个暴露在网络中的实例。关闭沙箱、权限策略过宽或跨信任边界部署等情况,即使在无代码漏洞的前提下,也可能带来严重安全隐患。
多维防御建议:从开发到部署的安全治理
开发者:在构建类似OpenClaw的智能体系统时,安全必须从设计之初就作为核心要素,而非在系统规模扩大后再进行补救,包括加固控制平面管理接口,对派生进程强制执行不可变的权限继承,并引入语义防火墙等系统级防护。
部署方:管理AI智能体应类比管理“特权员工”,持续监控、定期审计以及严格的访问权限管理。运营方应将服务绑定至本地回环地址运行,建议在隔离环境中使用非Root账户运行,强制执行身份验证与允许列表机制,并对第三方扩展按不可信代码标准进行严审。
普通用户:现阶段应保持谨慎,在安全性更成熟的版本发布前,避免赋予自治智能体对个人或企业核心账户的广泛访问权限。

新华报业网
Android版
iPhone版