2026 年 2 月,AI 圈爆发一场生态冲突:谷歌突然限制数千名使用开源智能体工具 OpenClaw 接入旗下 Antigravity 平台的开发者账号,甚至包括月付 249 美元的 AI Ultra 付费用户。此举因 “无预警、无缓冲、沟通不畅” 引发全球开发者集体不满,OpenClaw 创始人 Peter Steinberger 直接怒怼谷歌做法 “相当严苛”,并对比 Anthropic 的沟通式处理方式,宣布后续版本将彻底移除对谷歌服务的支持,这场风波也揭开了 AI 开源工具与大厂生态规则的深层矛盾。
封禁事件始末:无预警 “一刀切”,付费用户也遭波及
2 月 23 日起,全球多地开发者反馈,在通过 OpenClaw 接入谷歌 Antigravity 平台或 Gemini 模型后,账号突然被限制访问相关服务。谷歌 DeepMind 工程师 Varun Mohan 随后回应,称封禁原因是大量用户通过 OpenClaw 等第三方工具 “恶意使用” Antigravity 后端,发起规模化自动化调用,导致平台算力过载,严重影响普通用户体验。
谷歌的封禁逻辑与执行方式
-
封禁范围:主要限制 Antigravity、Gemini CLI、Cloud Code Private API 的使用,未完全封禁谷歌账号其他服务(如 Gmail、Google Drive),但部分高风险账号出现连带限制;
-
判定标准:针对 “90% 以上使用量并非 Antigravity 原生功能” 的账号,认定为违规调用;
-
执行争议:无任何提前预警或违规通知,直接切断访问权限,付费用户预付费未退还,申诉通道不畅通,甚至咨询 GCC 支持需额外付费。
开发者的集体不满
受影响用户在谷歌论坛、Hacker News 等平台集中控诉:谷歌作为平台方,应优先屏蔽第三方工具集成而非封禁用户账号;付费用户享有商业契约保障,“一刀切” 封禁违背服务承诺;申诉无回应、沟通无渠道,完全无视开发者权益。一名月付 249 美元的 Ultra 用户表示,仅因用 OpenClaw 连接 Gemini 就被封号,且未收到任何退款说明,体验极差。
OpenClaw:从个人实验到全球现象,意外走红的开源黑马
这场风波的核心主角 OpenClaw,并非大厂孵化的项目,而是创始人 Peter Steinberger 历时近一年、独自探索的开源实验,却在短时间内成为全球开发者追捧的 “智能体神器”。
创始人的跨界与顿悟
Steinberger 并非 AI 原生创业者,此前他创办跨平台 PDF 开发工具包 PSPDFKit,运营 13 年后成功出售,经历职业倦怠期后才转向 AI 领域。一次偶然的经历让他窥见智能体的潜力:他将 1.5MB 的烂尾项目文档交给 AI,模型自主完成规格设计、代码编写与自我校验,尽管代码粗糙,却让他意识到 “给 AI 足够权限与工具,它能自主解决问题”。
真正让他坚定方向的是摩洛哥旅行中的实测:当地网络糟糕,WhatsApp 却能正常使用,他用自己开发的工具通过 WhatsApp 翻译、查餐厅、远程控制电脑文件,朋友的迫切需求让他确信产品的真实价值,这也成为 OpenClaw 的雏形。
意外走红的核心魅力
OpenClaw 的爆火并非偶然,其核心优势击中了开发者痛点:
-
低门槛赋能:无需复杂开发,即可为大模型接入工具调用、自动化执行能力,让普通开发者也能快速部署智能体;
-
极致灵活性:支持接入主流大模型与通讯平台(WhatsApp、Telegram 等),可实现翻译、远程控制、文件处理等多元场景;
-
开源自由:免费开放,社区贡献活跃,已积累超 2000 个 PR,尽管 Steinberger 更愿将其称为 “提示词请求”,聚焦解决问题而非代码形式。
最令人惊叹的是其自主创新能力 ——Steinberger 曾随手发送一条无后缀音频消息,模型竟自主识别为 Opus 编码,用 FFmpeg 转码后通过 OpenAI API 完成转录,这让他顿悟 “权限与工具越多,AI 的惊喜越多”。如今,OpenClaw 已形成全球社区,旧金山线下聚会 ClawCon 到场超千人,维也纳的同类活动也有 300 人报名,从个人实验成长为现象级项目。
冲突本质:开源自由与大厂生态规则的博弈
此次封禁事件并非简单的 “违规处罚”,而是 AI 时代开源工具与平台生态规则碰撞的必然结果,背后涉及三重核心矛盾:
1. 工具定位与平台规则的错位
谷歌 Antigravity 的设计初衷是 “面向人类的交互式编程 IDE”,算力成本由谷歌补贴,仅允许原生客户端低强度使用;而 OpenClaw 将其当作 “算力代理入口”,实现自动化、规模化调用,本质上违反了平台服务条款。但开发者认为,谷歌应通过技术手段屏蔽第三方接入,而非直接惩罚用户。
2. 开源特性与安全风险的平衡
OpenClaw 的 “黑客友好” 设计(高可配置性)使其面临安全争议:内置 Web 服务本为本地调试,却被人通过反向代理公开,导致安全研究者给出 CVSS 10.0 的最高风险评级。Steinberger 坦言,开源的魅力在于无限可能,但也需承担 “非预期使用” 的风险,如今他已将重点转向优化安全场景,避免用户不知情下受损失。
3. 大厂生态管控与开源自由的博弈
Steinberger 的核心不满在于谷歌的处理态度:“Anthropic 遇到类似问题会直接联系我沟通,而谷歌二话不说就封号”。更深层的背景是,封禁前 Steinberger 刚加入 OpenAI,负责下一代个人智能体项目,OpenClaw 也刚支持 Gemini 3.1 Pro,业界普遍认为谷歌此举带有 “生态围剿” 意味,试图阻断竞争对手工具调用自家模型的渠道。
行业影响:规则重构与开发者觉醒
这场风波已引发连锁反应:Meta、Anthropic 等大厂同步收紧 API 管控,明确禁止 “第三方代理调用”“自动化批量请求”;谷歌、Anthropic 紧急修订服务条款,细化违规判定标准;OpenClaw 加速适配 Ollama 等开源本地模型,减少对大厂生态的依赖。
对于开发者而言,事件也敲响警钟:使用第三方开源工具接入大厂服务时,需提前核查合规性;过度依赖单一平台的算力与服务,可能面临 “断粮” 风险;而对于行业,这标志着 AI 产业从野蛮生长走向规则重构,开源自由与平台管控的博弈将长期存在。
Steinberger 仍对 AI 时代充满信心,他援引英伟达 CEO 的观点:“短期内你不会被 AI 取代,但会被更会用 AI 的人取代”。他认为 2026 年将是智能体领域爆发的一年,而此次与谷歌的冲突,只是技术浪潮涌来时,生态系统尚未准备就绪的一个缩影。

