你必读的 RSS 订阅源有哪些?
《AI时代漫游指南》第 77 章·自动化的正确姿势:
「宇宙中有 73% 的知识工作者,每天早上醒来第一件事就是手动让 AI 分析信息。但真正聪明的那 27%,会让分析报告自动出现在邮箱里。」
你每天花多长时间在”看新闻”上?
我算了一下:刷 X 十五分钟,翻 HackerNews 十分钟,扫 36 氪五分钟,查几个 AI 公司博客又十分钟——加起来每天至少四十分钟。
还经常看完就忘了,该看的没看到,不该看的倒看了不少。
更扎心的是:这四十分钟里,真正有价值的信息可能就两三条。
所以我做了一件事:用一台树莓派 + 19 个 RSS 源 + AI 自动筛选,造了一个 24 小时在线的私人情报站。
从此不刷信息,信息来找我。
一、先回答灵魂问题:为什么不直接用现成的?
“这不就是个 RSS 阅读器吗?Feedly 不行吗?”
好问题。区别在于——
普通 RSS 阅读器:给你 200 条新闻,你自己看。
这个系统:200 条进去,AI 帮你打分,5 条出来。
这就像雇了一个全职分析师,每天帮你看完所有信息源,然后只告诉你「老板,今天就这几条值得你花时间」。
编者注:宇宙中最稀缺的资源不是石油,不是算力,是你的注意力。一个好的信息系统应该帮你守住这个资源,而不是消耗它。
二、系统全貌:五分钟看懂架构
整套系统总共三层:
第一层:信息触角(19 个 RSS 源)
19 个源,覆盖中英文,四大类:
AI 公司官方博客(5个):OpenAI、Anthropic、DeepMind、HuggingFace、NVIDIA
国际科技媒体(7个):TechCrunch、HackerNews、The Verge、Ars Technica、Reuters、VentureBeat、MIT Tech Review
中文科技媒体(6个):36氪快讯、虎嗅、少数派、知乎热榜、爱范儿、MIT科技评论中文版
AI 前沿论文(1个):HuggingFace Daily Papers
从公司一手消息到媒体解读到前沿论文,一张信息网兜住了 AI 赛道的核心信息流。
第二层:信息管道(RSSHub 中转)
编者注:如果你觉得「部署两个实例」听起来很复杂——没错,它确实比一个复杂。但就像人生一样,最优解往往不是最简单的那个。
第三层:AI 大脑(自动筛选 + 打分)
这是核心。
系统定时抓取所有文章,把标题和摘要喂给 AI,让它按你定义的标准打分:
•9-10 分:重大事件(如 Thrive Capital 100 亿美元募资)
•7-8 分:重要信息(如某公司发新模型)
•5-6 分:一般相关
•4 分以下:直接过滤
今天的实际数据
:177 篇文章进去,AI 评分后只保留 24 篇,最终推荐 top 10——每一条都值得读。
三、一天的信息流是怎么跑的?
用今天的真实数据演示一遍:
⏰ 8:00 — 19 个 RSS 源同时抓取,30 秒跑完,拿到 177 篇新文章。
8:01-8:03 — AI 逐条打分,2-3 分钟。
8:03 — 结果存入数据库,API 随时可查。
编者注:177 条变 5 条,信息压缩比 97%。如果熵减是人类对抗宇宙的倔强,这大概算是个微型反熵装置。
四、你需要什么设备?
坏消息先说:树莓派涨价了。
2026 年 2 月,树莓派 5(16GB)从 $120 涨到 $205——三个月内第二次涨价,比原价贵了 70%。
原因?AI 导致的内存短缺。LPDDR4 产线被 AI 数据中心抢走了,树莓派成了附带损害。
编者注:用来做 AI 情报站的硬件,因为 AI 涨价了。这个宇宙的幽默感一如既往的到位。
好消息是:你有很多替代选择。
树莓派 5(4GB):经典之选,功耗低 | ¥500-600
Mac Mini M4:性能怪兽,还能干别的 | ¥3,999 起
旧笔记本 / 台式机:家里吃灰的就行 | ¥0
云服务器:轻量级按需 | ¥几十/月
NAS(群晖/威联通):本来就 24 小时开机
核心要求只有一个:能 24 小时在线。
Mac Mini 其实是目前性价比极高的选择——功耗低、性能强、还能当日常开发机。Tom’s Hardware 已经报道说树莓派和 mini PC 的价格正在持平。
软件全部免费开源,唯一的费用是 AI API 调用。
总运行成本:每天不到 1 块钱。
一块钱,省四十分钟。这大概是知识工作者能买到的最便宜的效率提升。
五、关键设计决策
为什么用 RSS 而不是爬虫?
RSS 是互联网最古老的协议之一,看起来过时,其实是最稳定的数据源:
•结构化数据:标题、摘要、链接、时间,天然干净
为什么用 SQLite?
因为够用。177 篇文章的读写,毫秒级完成。零配置,一个文件搞定。
编者注:技术选型的第一原则——能解决问题的最简单方案,就是最好的方案。在你的信息管理系统撑到每天处理 10 万篇文章之前(大概率永远不会),SQLite 就是正确答案。
为什么自研而不是用现成产品?
三个理由:
可控性
:你决定看什么源,用什么标准筛选。不被算法投喂。
隐私
:数据在你自己的设备上,不上传到任何第三方。
可扩展
:今天筛新闻,明天可以接到视频生成、微信推送、飞书通知——因为它是一个 API 服务,任何系统都能调用。
事实上,我已经把它接到了一个自动生成 60 秒新闻速播视频的流水线上。从 177 篇文章到一条短视频,全自动。但这是另一篇文章的内容了。
六、30 分钟快速上手版
如果你不想折腾完整版,这里有一个最小可行版本:
Step 1:选 5 个 RSS 源(5 分钟)
不需要 19 个。挑 5 个你最关心的。用 RSSHub 公共实例(rsshub.app),不需要自己部署。
Step 2:写一个 Python 脚本(15 分钟)
核心逻辑就三步:
1️⃣ 用 feedparser 抓取 RSS 源
2️⃣ 把标题和摘要发给 AI 打分
3️⃣ 输出 7 分以上的文章
大约 30 行代码。
Step 3:设个定时任务(10 分钟)
Linux/Mac 用 crontab,Windows 用任务计划程序。
完事。每天早上 8 点,一份精选新闻就躺在那里等你了。
七、进阶方向
最小版本跑起来之后,你可以一步步进化:
V2 — 加 SQLite 存储历史(能回溯任意一天的新闻)
V3 — 加多主题支持(投资、技术、行业各一份报告)
V4 — 接通知渠道(推送到微信/飞书/Telegram)
V5 — 接视频生成(每日自动出一条 60 秒速播)
V6 — 加趋势分析(按周/月看 AI 赛道热度变化)
我目前在 V5 阶段。下一步是加趋势分析,看哪些公司/赛道在持续升温。
八、这件事的底层逻辑
说到底,这不是一个”技术项目”。这是一个信息哲学实践。
传统的信息获取模式是 Pull:你去找信息。刷微博、刷 X、刷新闻 APP。
问题是,你的注意力被平台的推荐算法绑架了——它优化的是你的停留时间,不是你的信息质量。
这套系统实现的是 Push + Filter:信息来找你,但经过你定义的标准筛选。你拿回了信息策展的主动权。
《AI时代漫游指南》第 33 章·信息蒸馏的艺术:
「人类花了 2500 年才学会反思的重要性,然后又花了 2500 年忘记去做。直到有一天,他们教会了 AI 替自己反思——这大概是人类最诚实的一次自我认知。」
信息蒸馏的本质,是用 AI 的计算力替代人类的注意力。
你该把注意力花在思考和决策上,不是花在筛选上。
写在最后
一台闲置设备。19 个免费的 RSS 源。一点 AI API 费用。30 分钟搭建时间。
从此每天省下 40 分钟的信息噪音,换来 5 条真正值得你花时间的情报。
这就是 AI 时代的信息管理:不是看更多,而是看更少、看更好。