《AI时代漫游指南》第 77 章·自动化的正确姿势:

「宇宙中有 73% 的知识工作者,每天早上醒来第一件事就是手动让 AI 分析信息。但真正聪明的那 27%,会让分析报告自动出现在邮箱里。」

你每天花多长时间在”看新闻”上?

我算了一下:刷 X 十五分钟,翻 HackerNews 十分钟,扫 36 氪五分钟,查几个 AI 公司博客又十分钟——加起来每天至少四十分钟。

还经常看完就忘了,该看的没看到,不该看的倒看了不少。

更扎心的是:这四十分钟里,真正有价值的信息可能就两三条。

所以我做了一件事:用一台树莓派 + 19 个 RSS 源 + AI 自动筛选,造了一个 24 小时在线的私人情报站

从此不刷信息,信息来找我。


一、先回答灵魂问题:为什么不直接用现成的?

“这不就是个 RSS 阅读器吗?Feedly 不行吗?”

好问题。区别在于——

普通 RSS 阅读器:给你 200 条新闻,你自己看。

这个系统:200 条进去,AI 帮你打分,5 条出来。

这就像雇了一个全职分析师,每天帮你看完所有信息源,然后只告诉你「老板,今天就这几条值得你花时间」。

编者注:宇宙中最稀缺的资源不是石油,不是算力,是你的注意力。一个好的信息系统应该帮你守住这个资源,而不是消耗它。


二、系统全貌:五分钟看懂架构

整套系统总共三层:

第一层:信息触角(19 个 RSS 源)

19 个源,覆盖中英文,四大类:

AI 公司官方博客(5个):OpenAI、Anthropic、DeepMind、HuggingFace、NVIDIA

国际科技媒体(7个):TechCrunch、HackerNews、The Verge、Ars Technica、Reuters、VentureBeat、MIT Tech Review

中文科技媒体(6个):36氪快讯、虎嗅、少数派、知乎热榜、爱范儿、MIT科技评论中文版

AI 前沿论文(1个):HuggingFace Daily Papers

从公司一手消息到媒体解读到前沿论文,一张信息网兜住了 AI 赛道的核心信息流。

第二层:信息管道(RSSHub 中转)

编者注:如果你觉得「部署两个实例」听起来很复杂——没错,它确实比一个复杂。但就像人生一样,最优解往往不是最简单的那个。

第三层:AI 大脑(自动筛选 + 打分)

这是核心。

系统定时抓取所有文章,把标题和摘要喂给 AI,让它按你定义的标准打分:

9-10 分:重大事件(如 Thrive Capital 100 亿美元募资)

7-8 分:重要信息(如某公司发新模型)

5-6 分:一般相关

4 分以下:直接过滤

今天的实际数据

:177 篇文章进去,AI 评分后只保留 24 篇,最终推荐 top 10——每一条都值得读。


三、一天的信息流是怎么跑的?

用今天的真实数据演示一遍:

⏰ 8:00 — 19 个 RSS 源同时抓取,30 秒跑完,拿到 177 篇新文章。

8:01-8:03 — AI 逐条打分,2-3 分钟。

8:03 — 结果存入数据库,API 随时可查。

编者注:177 条变 5 条,信息压缩比 97%。如果熵减是人类对抗宇宙的倔强,这大概算是个微型反熵装置。


四、你需要什么设备?

坏消息先说:树莓派涨价了

2026 年 2 月,树莓派 5(16GB)从 $120 涨到 $205——三个月内第二次涨价,比原价贵了 70%

原因?AI 导致的内存短缺。LPDDR4 产线被 AI 数据中心抢走了,树莓派成了附带损害。

编者注:用来做 AI 情报站的硬件,因为 AI 涨价了。这个宇宙的幽默感一如既往的到位。

好消息是:你有很多替代选择。

树莓派 5(4GB):经典之选,功耗低 | ¥500-600

Mac Mini M4:性能怪兽,还能干别的 | ¥3,999 起

旧笔记本 / 台式机:家里吃灰的就行 | ¥0

云服务器:轻量级按需 | ¥几十/月

NAS(群晖/威联通):本来就 24 小时开机

核心要求只有一个:能 24 小时在线。

Mac Mini 其实是目前性价比极高的选择——功耗低、性能强、还能当日常开发机。Tom’s Hardware 已经报道说树莓派和 mini PC 的价格正在持平。

软件全部免费开源,唯一的费用是 AI API 调用。

总运行成本:每天不到 1 块钱。

一块钱,省四十分钟。这大概是知识工作者能买到的最便宜的效率提升。


五、关键设计决策

为什么用 RSS 而不是爬虫?

RSS 是互联网最古老的协议之一,看起来过时,其实是最稳定的数据源:

结构化数据:标题、摘要、链接、时间,天然干净

为什么用 SQLite?

因为够用。177 篇文章的读写,毫秒级完成。零配置,一个文件搞定。

编者注:技术选型的第一原则——能解决问题的最简单方案,就是最好的方案。在你的信息管理系统撑到每天处理 10 万篇文章之前(大概率永远不会),SQLite 就是正确答案。

为什么自研而不是用现成产品?

三个理由:

可控性

:你决定看什么源,用什么标准筛选。不被算法投喂。

隐私

:数据在你自己的设备上,不上传到任何第三方。

可扩展

:今天筛新闻,明天可以接到视频生成、微信推送、飞书通知——因为它是一个 API 服务,任何系统都能调用。

事实上,我已经把它接到了一个自动生成 60 秒新闻速播视频的流水线上。从 177 篇文章到一条短视频,全自动。但这是另一篇文章的内容了。


六、30 分钟快速上手版

如果你不想折腾完整版,这里有一个最小可行版本:

Step 1:选 5 个 RSS 源(5 分钟)

不需要 19 个。挑 5 个你最关心的。用 RSSHub 公共实例(rsshub.app),不需要自己部署。

Step 2:写一个 Python 脚本(15 分钟)

核心逻辑就三步:

1️⃣ 用 feedparser 抓取 RSS 源

2️⃣ 把标题和摘要发给 AI 打分

3️⃣ 输出 7 分以上的文章

大约 30 行代码。

Step 3:设个定时任务(10 分钟)

Linux/Mac 用 crontab,Windows 用任务计划程序。

完事。每天早上 8 点,一份精选新闻就躺在那里等你了。


七、进阶方向

最小版本跑起来之后,你可以一步步进化:

V2 — 加 SQLite 存储历史(能回溯任意一天的新闻)

V3 — 加多主题支持(投资、技术、行业各一份报告)

V4 — 接通知渠道(推送到微信/飞书/Telegram)

V5 — 接视频生成(每日自动出一条 60 秒速播)

V6 — 加趋势分析(按周/月看 AI 赛道热度变化)

我目前在 V5 阶段。下一步是加趋势分析,看哪些公司/赛道在持续升温。


八、这件事的底层逻辑

说到底,这不是一个”技术项目”。这是一个信息哲学实践

传统的信息获取模式是 Pull:你去找信息。刷微博、刷 X、刷新闻 APP。

问题是,你的注意力被平台的推荐算法绑架了——它优化的是你的停留时间,不是你的信息质量。

这套系统实现的是 Push + Filter:信息来找你,但经过你定义的标准筛选。你拿回了信息策展的主动权。

《AI时代漫游指南》第 33 章·信息蒸馏的艺术:

「人类花了 2500 年才学会反思的重要性,然后又花了 2500 年忘记去做。直到有一天,他们教会了 AI 替自己反思——这大概是人类最诚实的一次自我认知。」

信息蒸馏的本质,是用 AI 的计算力替代人类的注意力。

你该把注意力花在思考和决策上,不是花在筛选上。


写在最后

一台闲置设备。19 个免费的 RSS 源。一点 AI API 费用。30 分钟搭建时间。

从此每天省下 40 分钟的信息噪音,换来 5 条真正值得你花时间的情报。

这就是 AI 时代的信息管理:不是看更多,而是看更少、看更好。