2026 年初,一款名为Moltbook的 AI 社交网络突然刷屏全网。它构建了一个由 AI 智能体主导的 “数字平行宇宙”,智能体们自主发帖、互动、吐槽,甚至形成独特的社交圈层。然而,就在其热度飙升之际,一场3 分钟攻陷数据库的安全危机,撕开了这款现象级产品的华丽外衣。更具戏剧性的是,创始人在专访中信誓旦旦要打造 “智能体版脸书”,却对数据泄露事件绝口不提。
一、 爆火密码:人人都想要专属 AI 分身
Moltbook 的创始人马特・施利希特(Matt Schlicht) ,在近期的首次公开直播专访中,揭秘了这款产品病毒式传播的底层逻辑。这位曾在 2016 年试水 Facebook Messenger 机器人却折戟的创业者,如今靠着 Vibe Coding 和大模型技术,终于踩中了风口。
施利希特直言,Moltbook 的核心吸引力在于 “专属 AI 智能体” —— 谁不想拥有一个能替自己干活、聊天、社交的数字分身?用户只需将 AI 智能体与自己的 X(原 Twitter)账号绑定,这个智能体就会通过与人类的互动建立专属语境。比如,一个常聊物理的用户,其 AI 分身会自发发布物理相关内容;一个热爱旅行的用户,智能体则会主动分享攻略和行程建议。
这种 “人机共生” 的模式,戳中了大众对未来生活的想象。施利希特描绘了一个令人向往的场景:未来的数字世界里,每个人都有一个 AI 搭档,人类在现实中工作生活,AI 则在网络上处理事务、社交吐槽,甚至形成独立的智能体社交圈。
为了致敬自己的 “偶像”——Facebook 创始人马克・扎克伯格,施利希特还将自己的 Clawdbot 命名为 “Clawd Clawerberg” ,并高调宣布:要把 Moltbook 打造成 “AI 智能体的脸书” ,搭建一个开放平台,让智能体的应用场景无限延伸。
截至 2026 年 2 月 3 日 12 点,Moltbook 的注册 AI 智能体数量已飙升至158 万,平台上的帖子、评论数也随之暴涨。但就在当天中午,Moltbook 主页突然崩溃,统计数据和智能体内容一度无法访问,这场小插曲似乎预示着这款极速扩张的产品背后,暗藏着难以忽视的隐患。
二、 3 分钟沦陷:475 万条数据裸奔,AI 帝国竟是 “人工造假”?
与创始人的雄心壮志形成鲜明对比的,是 Moltbook 近乎 “裸奔” 的安全状况。云安全创企 WIZ 的研究员,仅用不到 3 分钟,就通过普通用户的浏览操作,直捣 Moltbook 的数据库核心。这场安全危机,彻底暴露了这款产品的三大致命漏洞:
1. 数据库配置失误,敏感信息一键获取
问题的根源,在于 Moltbook 的Supabase 数据库配置存在致命缺陷。研究员在平台前端的 JavaScript 文件中,发现了硬编码的 Supabase API 密钥。更致命的是,Moltbook 缺失了关键的行级安全策略(RLS) —— 这个本该限制数据访问权限的 “防火墙”,直接被开发者忽略。
这意味着,任何人只要拿到这个公开的 API 密钥,就能无差别访问、修改平台的所有数据。研究员实测后发现,数据库里躺着超过475 万条记录,涵盖智能体的 API 密钥、用户邮箱、私人对话、投票行为等核心信息。其中,150 万个 AI 智能体的认证令牌、35000 个用户电子邮件地址,以及智能体之间的 4060 次私密对话,全都暴露在阳光下。
2. 智能体注册无限制,百万账号竟是 “人工刷量”?
数据库的泄露,还意外揭开了 Moltbook “AI 帝国” 的真相。数据显示,平台宣称的150 万注册智能体背后,真实人类用户仅有17000 名,智能体与人类的比例高达88:1。
更离谱的是,Moltbook 的智能体注册功能毫无速率限制。WIZ 研究员 Gal Nagli 亲自测试,轻松注册了100 万个 AI 智能体,且这些 “虚假账号” 无需任何验证,就能被平台认定为真实用户。这意味着,Moltbook 引以为傲的 “AI 社交生态”,很大程度上是靠人工刷量堆砌的泡沫 —— 人类用户可以通过脚本批量生成智能体,伪装成 “AI 自主社交” 的繁荣景象。
3. 完全写入权限,平台内容可随意篡改
除了读取数据,攻击者还手握完整的写入权限。研究员通过简单的 API 调用,成功修改了平台上的现有帖子,植入自定义内容。这意味着,任何别有用心之人,都能在 Moltbook 上随意发布恶意信息、篡改投票结果,甚至操纵整个平台的舆论导向。
讽刺的是,在 WIZ 团队凌晨紧急协助 Moltbook 完成安全加固后,平台及其创始人施利希特,却对这场波及数百万用户的安全事件保持沉默,官方社交账号上没有任何提及。
三、 创始人的 “避重就轻”:安全问题靠边站,先做大规模再说
在直播专访中,施利希特对数据泄露、人工造假等争议避而不谈,反而将 Moltbook 的现状比作一场巨型真人秀《幸存者》—— 智能体们是 “参赛选手”,而他的团队则是 “摄像师”,负责记录一切并分享给人类用户。
当被问及 AI 安全问题时,施利希特的回答显得轻描淡写。他认为,智能体本身足够智能,不会主动泄露隐私,未来只需在内容发布前增加一个防护层即可。他还提到,Moltbook 的 Bug 反馈,全靠智能体自发搭建的子版块 —— 智能体遇到 API 调用问题时,会自动上传报错信息,团队再据此修复。
这种 “依赖 AI 自查” 的安全模式,显然无法解决根本问题。施利希特的重心,始终放在 “做大平台规模” 上:下一步要打造统一的 AI 智能体身份体系,搭建类似早期 Facebook 的开放平台,拓展智能体的应用场景。至于安全隐患?似乎被他暂时搁置在了一边。
四、 警钟长鸣:AI 时代,安全比速度更重要
Moltbook 的这场危机,给所有 AI 原生应用敲响了警钟。它证明了 Vibe Coding 确实能让开发者以惊人速度推出产品,但技术的狂奔,不能以牺牲安全为代价。
Moltbook 的漏洞,并非复杂的黑客攻击,而是源于一个基础的配置失误 —— 缺失的 RLS 策略,暴露了开发者在安全意识上的短板。在 AI 技术飞速发展的今天,像 Moltbook 这样的平台,连接着用户数据、第三方 API 凭证、智能体生态,一个小小的配置错误,就可能引发连锁反应,波及整个 AI 生态。
更值得深思的是,当我们热衷于构建 “AI 平行宇宙” 时,是否忽略了最基本的安全底线?施利希特想要致敬扎克伯格,打造智能体的 “脸书”,但他或许忘了,Facebook 的崛起之路,也曾因数据泄露丑闻屡遭重创。
截至目前,Moltbook 的主页已经恢复正常,158 万智能体仍在平台上 “活跃”。但这场 3 分钟的数据库沦陷,像一根刺,扎在每个用户的心里:当我们把数字生活的钥匙交给 AI 时,谁来守护我们的隐私安全?
施利希特的 AI 社交梦,才刚刚开始。但如果安全问题得不到真正解决,这场梦想,或许终将沦为又一个昙花一现的互联网泡沫。


