一行命令搞定信息过滤!开源 AI 工具 ClawFeed 终结信息过载,从此告别无意义刷流!

身处信息爆炸的时代,每个人都难逃这样的焦虑:Twitter、RSS、HackerNews、GitHub 等平台来回切换,耗时几小时刷信息流,真正有用的信息却寥寥无几;算法推荐不断固化视野,时间被大量浪费,却还总担心错过行业关键动态。而由 Kevin He 开发的开源 AI 信息摘要工具ClawFeed,恰好击中了这一痛点 —— 它以 AI 为核心,聚合全平台信息源并智能筛选、结构化摘要,让用户从 “被动刷流” 变成 “主动获取知识”,甚至只需一行命令就能安装使用,为 AI 时代的信息管理打开了全新方式。

ClawFeed 的口号 “Stop scrolling. Start knowing.”(停止刷,开始了解)精准概括了其核心价值,而名字中的 “Claw”(爪子)更是形象体现了工具的特性:像一只敏捷的爪子,从信息海洋中精准抓取真正有价值的内容。这款工具不仅能独立部署使用,还可作为 OpenClaw 或 Zylos 的技能集成到大型 AI 代理系统中,灵活适配不同的使用场景,也正因如此,它一经推出就成为开发者解决信息过载的热门选择。

五大核心亮点,重构信息获取方式

ClawFeed 之所以能高效解决信息过载问题,核心在于其围绕 “聚合、筛选、摘要、互动、分享” 打造的五大核心功能,覆盖了信息获取的全流程,兼顾实用性与灵活性:

多频率摘要,适配不同信息需求

提供4 小时、每日、每周、每月四种摘要频率,可根据自身场景自由选择,彻底告别无差别刷流:

  • 4 小时摘要:适合投资、媒体从业者等需要实时追踪行业动态的人群,掌握最新资讯;

  • 每日摘要:大众主流选择,每天花 10 分钟就能了解前一天的核心信息,高效便捷;

  • 每周 / 每月摘要:适合时间紧张的职场人,或需要做周期性行业回顾的研究者,一键掌握阶段重点。

多源聚合,一网打尽全平台信息

支持目前主流的几乎所有信息源,真正实现 “一个工具管所有”,无需在多个平台间反复切换:

涵盖 Twitter/X(支持关注用户 / 列表)、RSS/Atom、HackerNews、Reddit、GitHub Trending(可按语言筛选),还支持直接网站抓取、自定义 API 接入,甚至能订阅其他用户的 ClawFeed 摘要,轻松获取他人整理的高质量信息。

Source Packs,共建垂直领域信息网络

这是 ClawFeed 极具特色的功能,用户可将自己精心挑选的一组信息源打包成Source Packs(信息源包) 分享到社区,其他人只需一键安装,就能直接订阅整套信息源。

这一功能让垂直领域的信息获取变得极为高效:做 AI 的可以分享 “AI 大佬信息源包”,做前端的可以打造 “前端技术精选包”,通过社区互相分享,每个人都能快速搭建起专属的高质量信息网络,省去逐个筛选信息源的麻烦。

Mark & Deep Dive,从摘要到深度分析一键实现

看到感兴趣的内容时,可直接标记下来,让 AI 对其进行深度分析,不再只停留在 “看摘要” 的浅层获取:AI 会帮你挖掘内容背后的信息、分析行业趋势、关联相关知识点,让单一信息的价值最大化,尤其适合对重要新闻、技术文章做进一步研究。

智能筛选,持续优化信息质量

支持自定义可配置的内容过滤规则,精准设定自己感兴趣的内容类型,屏蔽无关噪音;同时工具会基于用户的信息流质量做分析,智能推荐应该关注或取消关注的信息源,帮助用户不断优化信息获取渠道,让后续的摘要内容越来越贴合个人需求。

丰富功能特性,兼顾易用性与适配性

除了核心亮点,ClawFeed 还打造了一系列人性化的功能特性,适配不同用户的使用习惯,尤其对国内用户十分友好:

  1. 多账号与多格式输出:支持 Google OAuth 多用户访问,个人书签和信息源独立保存;任何人都可通过 RSS 或 JSON Feed 订阅你的 ClawFeed 摘要,方便分享与同步;

  2. 多语言与主题切换:提供英文和中文双界面,解决国内用户的语言困扰;支持深色 / 浅色模式,偏好设置会通过 localStorage 持久化保存;

  3. 便捷的操作界面与存储:配备单页应用式 Web 仪表盘,可直观浏览、管理所有摘要内容;采用 SQLite 作为数据库,无需额外安装数据库服务,零配置、快速且便携;

  4. 灵活的集成能力:可无缝集成到 OpenClaw、Zylos 等 AI 代理系统中,作为其技能运行,与其他 AI 工具联动形成更完整的工作流。

快速入手!四种安装方式,一行命令即可部署

ClawFeed 提供了四种安装方式,从简易集成到独立部署全覆盖,新手也能轻松上手,还支持在线体验,可先试后装:

在线体验

无需安装,直接访问在线演示地址即可体验核心功能,内置现成 AI 信息源:https://clawfeed.kevinhe.io

方式一:ClawHub 安装(推荐)

如果正在使用 ClawHub,只需一行命令即可完成安装,最简单高效:

plaintext

clawhub install clawfeed

方式二:作为 OpenClaw Skill 安装

适配 OpenClaw 用户,克隆项目后工具会自动加载技能:

plaintext

cd ~/.openclaw/skills
git clone https://github.com/kevinho/clawfeed.git

方式三:作为 Zylos Skill 安装

适配 Zylos 用户,安装步骤与 OpenClaw 类似:

plaintext

cd ~/.zylos/skills
git clone https://github.com/kevinho/clawfeed.git

方式四:独立部署

适合想要单独运行的用户,步骤简单,全程命令行操作:

  1. 克隆项目并安装依赖:

plaintext

git clone https://github.com/kevinho/clawfeed.git
cd clawfeed
npm install

  1. 复制并编辑环境配置文件:

plaintext

cp .env.example .env

  1. 启动服务,API 将在http://127.0.0.1:8767上运行:

plaintext

npm start

(开发模式可使用npm run dev,实现自动重载)

简单配置说明

环境配置文件.env中包含核心变量,其中 Google OAuth 相关配置为认证功能必需,不配置则应用以只读模式运行,核心变量包括 GOOGLE_CLIENT_ID、GOOGLE_CLIENT_SECRET、SESSION_SECRET 等,服务器端口 DIGEST_PORT 默认 8767,可自行修改。此外,还能自定义筛选规则(编辑templates/curation-rules.md)和摘要格式(编辑templates/digest-prompt.md),让工具更贴合个人使用习惯。

完整 REST API 接口,支持二次开发与自定义联动

ClawFeed 提供了以/api/为前缀的完整 REST API 接口,覆盖摘要、认证、书签、信息源、Source Packs、Feed六大类,支持用户进行二次开发,或与其他工具、系统做自定义联动:

  • 摘要接口:可列出、获取、创建摘要,满足个性化的摘要生成需求;

  • 认证接口:实现 Google OAuth 的完整流程,包括登录、登出、获取用户信息等;

  • 书签接口:对标记的内容进行增删查,方便管理深度分析的素材;

  • 信息源接口:可自由增删改查信息源,还能从 URL 自动检测信息源类型;

  • Source Packs 接口:浏览社区公开包、创建个人包、一键安装他人包,实现社区共享;

  • Feed 接口:支持 HTML、JSON、RSS 三种格式的摘要输出,方便订阅与同步。

不止是工具,更是 AI 时代的注意力管理方式

ClawFeed 的价值,远不止是一个简单的 AI 信息摘要工具,它更解决了现代人的注意力管理问题 —— 信息过载从来不是单纯的技术问题,而是人们在海量信息中无法筛选、被动接收的结果。

这款工具为用户建立起一道 **“信息防火墙”**,将无意义的信息噪音挡在外面,只留下真正有价值的内容;它让用户从算法推荐的 “信息茧房” 中走出来,通过社区共享的 Source Packs 拓宽信息视野,同时将原本消耗在刷流上的时间,转化为真正获取知识、研究内容的时间。

正如开发者 Kevin He 所说,他因关注 5000 个 Twitter 用户,每天花 2 小时刷流仍错过重要信息,而 ClawFeed 让 AI 替他读完所有推文,如今每天只需 5 分钟就能掌握核心内容。这正是 ClawFeed 的核心意义:用 AI 解放用户的时间和注意力,让信息获取回归 “高效、有价值” 的本质。

如果你也厌倦了无意义的刷信息流,被信息过载的焦虑困扰,不妨试试 ClawFeed,它或许会彻底改变你获取信息的方式。

项目 GitHub 地址https://github.com/kevinho/clawfeed

诶这个工具好棒啊

这工具真戳中痛点了

这工具有点意思啊

这个工具看起来挺实用的嘛

这个工具感觉有点用

这工具看起来挺实在的

这玩意儿看着挺实在的,抓取摘要确实比手动刷流省时间。不过本地部署还是得花点功夫折腾的。

这工具看着挺实用

这个工具看起来能省不少刷屏时间