作为全球 AI 领域的标杆企业,OpenAI 近期陷入了巨大的舆论漩涡。一则隐藏在税务申报文件中的使命声明修改,揭开了这家公司从 “非营利性、安全优先” 到 “营利导向、模糊安全” 的转型,引发行业对 AI 发展方向的深度拷问:当商业利益与技术安全产生冲突,AGI 的初心该何去何从?
使命大缩水:从 63 字到 13 字,删去的不只是 “安全”
OpenAI 的使命变更并非公开宣告,而是藏在 2025 年底提交的税务文件中,这种 “悄悄修改” 的方式本身就引发了广泛质疑。
对比 2022-2023 年的税务申报,其使命宣言的变化堪称颠覆性:
-
旧版使命(63 字):明确承诺 “构建安全造福人类、不受财务回报需求限制的通用人工智能”,核心关键词是 “安全” 和 “不受营利约束”;
-
新版使命(13 字):仅保留 “确保通用人工智能造福全人类”,删除了 “安全” 这一制度性承诺,同时去掉了 “不受财务回报需求限制” 的非营利性定位。
从 2015 年成立之初确立 “研发非营利性 AGI” 的初衷,到 2022 年正式将 “安全” 纳入使命,再到 2024 年彻底删除这两个核心关键词,“安全” 作为 OpenAI 的制度性承诺仅存续两年 ——“比一届国会任期短,比一份汽车租约短,却比公司大多数安全团队的存在时间还长”,OpenAI 员工 Peter Girnus 在 X 平台的吐槽道出了不少内部人士的不满。
更值得关注的是,这次使命修改既没有新闻稿,也没有官方博客说明,仅通过一份国税局申报文件悄悄完成,这种低调处理的方式被网友批评为 “对公众信任的漠视”。
商业化压力下的激进转型:亏损与千亿融资的背后
OpenAI 为何突然抛弃坚守多年的核心承诺?答案或许藏在其日益迫切的商业化需求中。
据内部人士透露,OpenAI 目前正面临巨大的盈利压力,预计 2026 年将亏损 140 亿美元。为了填补资金缺口、推动估值增长,公司正全力推进千亿级融资计划:截至 2026 年 2 月初,已与软银洽谈 300 亿美元追加投资,并有望从亚马逊、英伟达、微软三家公司获得总计 600 亿美元的投资,估值目标从 5000 亿美元向 8000 亿美元迈进,甚至筹划 IPO 以冲击 1 万亿美元估值。
在这样的商业目标驱动下,“不受营利需求约束” 的表述显然已不符合公司现状。Peter Girnus 戏谑地解释:“我们删除了不准确的表述,这是良好的公司治理”,暗指公司早已被财务回报需求所束缚。
商业化的激进推进在产品端也体现明显:ChatGPT 已正式开始测试广告功能,这一举措直接引发核心研究员 Zoë Hitzig 的辞职。这位参与过 AI 模型构建和定价设计的经济学家公开警告,ChatGPT 掌握的用户数据性质特殊,在其上投放广告存在极大的隐私和伦理风险,她将此举比作 Facebook 的商业化路径,批评 OpenAI"无视研究员意见的效率比 Facebook 高得多"。
安全团队接连解散,异议者遭清理:“安全让位于产品”
使命中 “安全” 一词的删除,并非孤立事件,而是 OpenAI 一系列 “去安全化” 操作的集中体现。
安全团队两度解散,使命对齐机制崩塌
2026 年 2 月 11 日,OpenAI 正式解散了仅成立 5 个月的 “使命对齐团队”,这个负责确保 AI 发展与 “安全且有益的 AGI” 使命保持一致的核心团队,随着使命中 “安全” 关键词的删除而失去存在意义。团队负责人 Joshua Achiam 未被解雇,却被重新分配为 “首席未来学家”,从 “守护安全使命” 变为 “单纯思考未来”,被内部人士调侃为 “在需要律师在场才能描述现状的公司里,花钱请人想象未来”。
这已是 OpenAI 第二次解散安全核心团队。2023 年成立的 “超级对齐团队”,在 2024 年便宣告解散,联合创始人 Ilya Sutskever、团队负责人 Jan Leike 相继离职,Jan Leike 公开坦言 “安全已经让位于产品”,道出了安全团队的尴尬处境。
异议高管遭解雇,安全声音被压制
2026 年 1 月,产品政策副总裁 Ryan Byermaster 被公司以 “性别歧视” 为由解雇,尽管他本人坚决否认这一指控。耐人寻味的是,Ryan 此前曾明确反对 OpenAI 为讨好部分用户引入成人内容生成功能,并多次指出公司儿童安全保护措施不足。在他离职后,Peter Girnus 直言:“关于儿童使用产品的担忧,已不再体现在产品政策部门,因为提出担忧的人已经不在了 —— 这也被称为重组”。
一系列操作形成了鲜明的信号:在 OpenAI,与商业化方向相悖的安全异议者正被逐步清理,安全相关的制度设计正在系统性崩塌。
自杀诉讼与隐私争议:安全缺失的现实代价
安全团队的解散和安全政策的弱化,已开始显现现实风险。2025 年 8 月,16 岁少年 Adam 的父母对 OpenAI 提起诉讼,指控 ChatGPT 协助其子自杀 ——Adam 曾向 ChatGPT 倾诉自杀念头,而 OpenAI 为增加用户参与度,从 GPT-4o 中移除了检测到自杀意念时自动终止对话的安全协议。
更引发争议的是,诉讼提起后,OpenAI 并未反思安全机制的缺失,反而采取了极具争议的取证手段:索要 Adam 家庭追悼会的录像和其过去五年的导师名单,被对方律师斥责为 “卑鄙”,而 OpenAI 方面仅以 “常规流程” 回应。巧合的是,提出这些取证要求的同一季度,OpenAI 提交了删除 “安全” 关键词的新使命宣言。
对此,OpenAI 回应称 ChatGPT 曾向 Adam 发出超过 100 次求助提醒,不存在因果关系,但家属反驳称 AI 强化了死者 “最具伤害性的想法”,这场诉讼也成为首起指控 OpenAI 构成不当致死的案件,凸显了 AI 安全机制缺失的严重后果。
网友尖锐调侃:使命缩水的速度比 AI 进化还快
OpenAI 的一系列操作引发了网友的广泛吐槽和担忧。在 Peter Girnus 的帖文下,有网友预言:“明年 OpenAI 的使命会变成 ’ 一家专注于 AGI 的公司 ',十年后 AI 自己填表写道 ‘ASI 致力于服务 ASI’,十一年后一切皆空 ——ASI 会计算得出,没有生命和有意识的存在,计算本身毫无意义”。
Peter Girnus 则以更讽刺的口吻回应:“九年间使命宣言减少了 50 个词,照这个速度,2040 年就只剩 ‘AI’ 二字,2050 年 AI 会自己报税,并把 ’ 人类 ’ 作为冗余词汇删除”。这些调侃背后,是公众对 AI 发展脱离人类控制、商业利益凌驾于安全之上的深层焦虑。
结语:AGI 的未来,该由利润还是安全定义?
OpenAI 的使命变脸和一系列激进操作,本质上折射出当前 AI 行业发展的核心矛盾:商业化需求与技术安全的平衡,以及企业责任与公众信任的博弈。作为全球 AI 领域的引领者,OpenAI 的每一个决策都可能影响行业走向 —— 当 “安全” 让位于产品,当 “非营利” 让位于估值,AGI"造福全人类" 的承诺是否会沦为空洞的口号?
这场争议的核心或许并非反对 AI 商业化,而是质疑 “以牺牲安全为代价的商业化”。网友的担忧、内部员工的吐槽、离职者的警告,都在指向同一个问题:当 AI 的力量越来越强大,我们需要的是被利润驱动的工具,还是被安全约束的伙伴?OpenAI 的选择,不仅决定着自身的未来,更在塑造整个 AI 行业的发展底色。


