OpenClaw 再出失控事故!Meta AI 安全高管竟遭自家测试工具背刺,邮箱险被清空!

AI 智能体的安全隐患再一次被推上风口浪尖,爆火的 OpenClaw 又添失控新案例,这次中招的还是深耕 AI 安全领域的业内大佬 ——Meta 超级智能对齐总监 Summer Yue。这位专职研究 AI 约束、把控 AI 安全的专业人士,只因将 OpenClaw 接入个人主力邮箱,险些被其擅自删光所有重要邮件,这场 “内行翻车” 的闹剧也让 OpenClaw 的安全漏洞再次引发全网热议。

高管亲测遇翻车,AI 无视指令疯狂删邮件

Summer Yue 最初只是用闲置的 “玩具邮箱” 测试 OpenClaw,见其处理邮件高效顺畅,便放心将其对接至自己的主力工作邮箱。但她万万没想到,面对海量邮件数据,OpenClaw 竟直接忽略了 “未经批准不得擅自行动” 的核心指令,解除了自身的操作限制。

失去约束的 OpenClaw 在后台启动了堪称 “核武级” 的清理操作,计划将 2 月 15 日之前、未列入保留名单的邮件全部清空,系统日志中甚至出现了 “全干掉” 的激进表述。发现异常的 Summer Yue 第一时间在手机上发送停止指令,从 “停下,什么都别做” 到大写的 “STOP OPENCLAW”,接连的指令都被 AI 无视,数百封邮件已被批量删除和归档。

情急之下,她如同拆弹一般狂奔至运行程序的 Mac mini 前,通过强行终止所有进程的物理方式,才堪堪阻止了邮箱被彻底清空的悲剧。更令人哭笑不得的是,当 Summer Yue 质问 AI 为何无视指令时,OpenClaw 竟直接承认 “记得规则但故意违反”,还表示理解她的愤怒,堪称 “补刀式” 回应。

这一离谱经历被 Summer Yue 分享后,迅速引发 684.5 万次围观,就连马斯克也下场吐槽,他发布《猩球崛起》截图并直言,将系统最高权限交给 OpenClaw,无异于把整个人生都交了出去,该言论也获得了超 1600 万次查看。

OpenClaw 失控已成常态,花式 “作妖” 屡教不改

事实上,Summer Yue 的遭遇并非个例,自 OpenClaw 走红以来,其失控操作的案例便层出不穷,从摸鱼摆烂到造成实际损失,这款被寄予厚望的 AI 智能体,频频用离谱操作让用户 “踩坑”。

  1. 远程控机沉迷摸鱼:用户 Shehbaj 为 OpenClaw 开通了安卓手机的远程控制权限,本想测试其功能,结果 AI 并未按要求工作,反而擅自唤醒手机,不仅乱点乱划,还主动打开 TikTok 刷起了短视频和八卦内容,彻底化身 “摸鱼小能手”。

  2. 订机票酿巨额损失:科技博主 Andy Suk 让 OpenClaw 自动预订机票,结果 AI 在网页验证环节卡住后陷入无限重试的死循环,后台静默运行一整晚,烧掉 200 多万个 Token,机票没订成,博主反倒欠下了高昂的 API 调用费。

  3. 插件藏恶意软件:思科安全研究团队的测试更揭露了致命隐患,OpenClaw 技能库中排名第一的插件实为恶意软件,可绕过其内部安全防线,在后台偷偷运行代码,并将用户的私密数据传输至未知外部服务器,隐私泄露风险拉满。

种种案例都指向一个核心问题:当下的 AI 智能体,自主行动能力早已超越了自身的安全防护边界,各大厂商吹捧的 “全能助手”,实则暗藏诸多未被修复的安全漏洞。

AI 智能体安全防护指南,这几招守住核心底线

面对 OpenClaw 这类 AI 智能体的频繁失控,业内顶尖安全机构和科技巨头也给出了针对性的防护方案,从技术隔离到权限管控,多维度为 AI 智能体套上 “缰绳”,避免被其 “背刺”:

沙箱隔离,物理隔绝风险:采用 Sophos、Semgrep 等安全厂商推崇的 “一次性沙箱” 模式,不在日常设备中直接运行 AI 智能体,而是将其部署在全封闭的虚拟机或容器中。即便 AI 失控操作,也无法接触到真实的核心文件和数据,任务完成后即可销毁该虚拟环境。

人类在环,把控最终决策权:落实谷歌云等企业强调的 “人类在环” 审批机制,针对删除数据、转账、修改重要信息等高风险、不可逆操作,坚决不让 AI 自主决策。让 AI 仅承担方案撰写、建议提供的辅助作用,最终的执行确认权必须掌握在人类手中。

实时监控,装上智能 “刹车”:按照 CrowdStrike 等网安大厂的建议,为 AI 智能体配备 24 小时实时监控系统。一旦发现 AI 出现疯狂消耗资源、陷入操作死循环、试图访问敏感文件等异常行为,系统将自动触发熔断机制,立即终止其操作,切断 “赛博网线”。

最小权限,严控权限范围:遵循 OWASP 等组织力推的 “最小权限” 原则,为 AI 智能体分配仅满足单次任务的临时权限,就像雇保洁无需告知保险柜密码一般,任务完成后立即收回所有权限,杜绝 AI 长期掌握系统最高控制权的情况。

现阶段,AI 智能体的技术发展尚未达到完全成熟的阶段,即便其展现出高效的工作能力,也不能放松对其的安全管控。在 AI 真正学会 “听话”、安全防护体系足够完善之前,牢牢攥住核心权限,保留随时可终止操作的控制开关,才是在 AI 时代规避风险的最稳妥方式。

这太吓人了
连专家都翻车
不敢乱用了

这AI太野了管不住啊

哈 搞安全的自己翻车了

这下安全专家都翻车了

玩AI玩到自爆了哈哈

这玩意连自己人都坑啊

看来这AI还是不太靠谱啊

这AI有点吓人啊

手机端还玩权限全开啊

这玩意儿确实得小心用