我用n8n+飞书监控了100 个AI头部公众号动态,借势解决「选题」困境

问AI · n8n+飞书如何自动化破解选题焦虑?

饼干哥哥是今年3月正式开始干AI自媒体,猛的一下6 月干到了 AI公众号榜单 TOP5

此前我也跑过公众号爆文,几个号都出过 10w➕,最高100w阅读,收入💰5 位数;再往前就是做数据分析博主。或许是这些经验,帮我搭建起了网感,迅速起号。


很多人问我怎么做公众号的,我之前也复盘过:

复盘 4 个月 AI 自媒体,公众号排名 5 月 Top5 / 6 月 Top10

按我的经验,在流量平台,包括公众号,一篇爆款的要素排序是:

💡

选题 > 标题 > 内容逻辑

  • 选题,一篇内容读者是否感兴趣很重要
  • 标题,解决的是「打开率」的问题
  • 内容逻辑,就是写的东西要能让读者看得下去,例如开头要炸场,中间要留阅读钩子,确保「完读率」

其中,选题占了少说 7、80% 的重要性


但问题是很多刚开始的同学没有网感,容易卡在选题上,不知道写什么好?久久未能度过冷启动期。


我刚开始的做法是关注几个博主,每天抽空刷一下他们写什么,数据好的,我就按我的方向来调整成我的选题。就这么简单。

但手动搜集、整理、思考……这种重复的体力劳动,不仅效率低,而且毫无创造性。

在AI时代,这简直是一种“犯罪”。


于是就有了今天的主题:利用n8n➕飞书,做一个ai 公众号自动化选题的Agent/工作流


先看效果,数据源是跟踪了 15 个公众号最近一周的发布内容,计算各种指标,形成一个选题建议,可以动态更新

想想看,这么一份「落地的」选题建议报告每天发到你的邮箱,岂不快哉?

图片

气泡图展示不出来,但在 html 里是完整的。

目前还是 0.1 版本, 比较粗糙,后续我准备在本地用 Claude code 跑个脚本,做更复杂的分析,至少加入日环比,可以更敏感的捕捉到每日的「突发」热点。

感兴趣的可以评论区留言催更!!!


这样一套下来,就能形成一个「垂直知识库」

这个价值非常高,可以拓展的玩法超级多

例如我经常拿@数字生命卡兹克 @卡尔的AI沃茨 等老师的内容跟自己的对比,反思自己哪里写的不好,怎么改进

现在就可以批量从风格、写作逻辑等维度做差异对比。

或者,不做IP的同学,把这个流程拿去做爆文公众号矩阵,一个月干个5位数💰应该不成问题。

我的教培业务也打算接入这套流程全自动完成选题-写作-排版-发布,欢迎关注催更。


废话不多说,接下来我会把这个“选题外挂”的完整搭建思路和盘托出。

它不仅解决了我的选题焦虑,希望看完后,你也能搭建自己的选题情报中心


先说下整体的搭建逻辑:

图片

一、采集公众号文章

  1. 我在服务器上部署了一个 wechat2rss,订阅了 15 个 ai主题的公众号
  2. 在n8n访问它,筛选指定时间的文章,下载保存到飞书,含文章链接
  3. 在飞书利用快捷字段的 AI 功能给文章都打上固定的几个类型的标签


二、搭建数据分析模型

  1. 在n8n把文章链接传给「极致了」api,抓取文章的数据:阅读量、评论数、转发率、在看数、点赞数、收藏数
  2. 在飞书把这些数据做组合指标,例如转发率等
  3. 把标签和指标组合做交叉分析


三、AI做选题分析报告

  1. 最终得出哪些标签数据好,背后就是建议做什么样的选题
  2. 确定选题后,筛选出这些标签的原文,给出具体的选题方向建议、内容结构
  3. 形成选题方案报告


n8n长这样:

图片

类似的工作流我之前也分享过,后面不会太详细讲,可以先看下面以往更细致的教程来入门:

保姆级教程:用 n8n + 快捷指令,一键无死角把灵感金句存入飞书

n8n+FastAPI=王炸!免费开源我年入7位数的小红书AI矩阵工作流

我的Vibe Marketing实践案例:如何用AI工作流驱动小红书矩阵,实现7位数营收


飞书长这样:

图片
图片


一、采集公众号文章

1. 部署wechat2rss

这一步是为了监控公众号的发布动态。

由于公众号非常封闭,几乎所有公开的 rss 源都不稳定,而且考虑到要做特定的筛选,建议是自己部署。

朋友给我推荐了wechat2rss,私有化部署 15 元/月,还挺稳定

图片

https://wechat2rss.xlab.app/

要通过Docker部署,我用的宝塔面板,整个过程非常丝滑,不用 10 分钟就部署好了。

图片

再花点时间把日常看的老师们公众号都给订阅上(节选)

图片

2. 搭建n8n 监控工作流

这里的逻辑是,向 wechat2rss 请求当前已订阅的所有公众号清单,然后逐个公众号处理:筛选指定时间范围的文章

图片

其中,HTTP 节点请求的是 WeChat2rss 的 list 接口,小白同学可以借助AI浏览器来辅导使用

图片

后面逐个公众号请求文章,请求的是/api/query接口:

图片


接着n8n 的第二个模块就是把前面多个公众号的多篇文章,逐一处理:

图片
  1. 1. html转md

wechat2rss中返回的文章都是html,巨长,既不方便我们自己看,也会导致传给 AI 超出上下文

所以我用code 把它转成 markdown 格式了

💡

代码太长了,我放到后台

关注公众号「饼干哥哥AGI」,回复「公众号」即可查看完整文档。

  1. 2. 「结构化的」文章摘要

但 markdown 格式依然很长,为了进一步节省上下文,需要对文章做一个浓缩

💡 注意,这里的浓缩关键在于:不能把原文的结构、关键词给省略了

所以是要求用 AI 做一个结构化的文章摘要,在保留尽可能多的信息的前提下,缩短文章长度

后续做分析报告的时候,就让 AI看这个摘要即可。


参考提示词(完整版见原文):

💡

将作者写的长篇文章,改写成一篇**结构完整、信息齐全、逻辑严密**的精简短文。 想象一下,这是为那些时间极其宝贵但又必须掌握你思想精华的核心读者(比如投资人、合作伙伴、高级决策者)准备的“浓缩精华版”。它本身就是一篇独立、完整、且有说服力的作品。 

最后,存入飞书的操作可以参考文章:

我用Dify把飞书表格的「AI提示词库」打包成了MCP Server给AI使用和管理


3. 给文章打上内容标签

这一步是把文章量化的过程,用于后续把内容标签与数据指标做交叉分析,我们才能知道哪些关键词内容在近期的势头很好。

但再好的选题,也要符合我们自己的内容方向。

也就是说,公众号其实是越垂直越好,什么都写,只会把标签搞乱。

我的内容方向包括:

1️⃣ AI落地应用案例,如 AI 编程、n8n工作流、AI Agent、AI工作流等;

2️⃣ AI数据分析案例,如AI做数据分析 ppt、用户洞察、自媒体数据分析等;

3️⃣ AI多模态玩法,例如ai生图(nano banana、Seedream、Midjourney)、ai 生视频(Sora2)等

基于此,我让 AI 给我设计了一套提示词(节选):

## 标签体系说明 
### 1. 主题域 (Topic Domain) - 文章的核心领域是什么? 
### 2. 核心要素 (Core Element) - 文章具体讨论了什么工具、技术或概念? 
### 3. 内容形式 (Content Format) - 这篇文章是怎么写的? 

接着就可以到飞书,用字段捷径-智能标签的功能,来给内容打标

图片

AI 生成选项把提示词扔进去,就会自动生成好合适的选项

图片

同样,把提示词扔到自定义标签要求,让 AI 逐行去生成内容标签即可。

图片


至此,我们就在飞书得到了监控公众号的文章信息,包括结构完整的摘要以及内容标签。

图片


二、搭建数据分析模型

接下来就可以开始做数据分析的工作, 但要先把文章的数据给补上。

4. 数据采集

我用的是极致了数据服务,采集一次 0.05 元

图片

https://dajiala.com/main/interface?actnav=0


接着就可以在n8n搭建流程,逐个把文章链接 post 给极致了,返回数据存入飞书即可。

图片

其中,http 请求返回的数据结构长这样:

图片


5. 搭建指标体系

单纯看绝对值(如阅读量、点赞数)容易产生误导,这里有平台推流、账号规模不同的问题。

例如一篇10万阅读的文章有100个转发,和一篇1000阅读的文章有50个转发,哪个更具传播潜力?显然是后者。

所以我们要通过“比率化”和“加权化”的方式消除量纲 ,并做多维评估

图片

至少要有 4 个指标:

  1. 1. 互动率 (Engagement Rate)
  • 这是文章内容“及格线”的基础指标,反映了内容是否对读者有基本的吸引力。
  • 计算公式:(点赞数+在看数)/阅读量*1000

  1. 2. 传播指数 (Virality Index)
  • 衡量内容在微信生态内的“裂变”和“破圈”能力。
  • 计算公式:传播指数=(转发数×2+在看数)/阅读量*1000

  1. 3. 内容价值指数 (Content Value Index)
  • 这个指标反映了你的内容是否“有料”,是否值得读者反复学习或深入探讨。
  • 计算公式:内容价值指数=(收藏数×2+评论数)/阅读量*1000


  1. 4. 综合热度分 (Overall Hotness Score)
  • 这是一个“总分”,便于进行 Top-N 的分析。
  • 计算公式: 综合热度分 =(点赞数×1+在看数×2+评论数×3+收藏数×4+转发数×5)/ 阅读量×100


直接在飞书新建公式列即可:

图片


三、选题分析报告

我写了一个极其详尽的Prompt,命令AI扮演“顶尖数据分析师+前端开发专家”,接收我整理好的所有文章数据,然后生成一份酷炫、可交互的单文件HTML报告。

这个Prompt非常长,它定义了报告的风格(深色主题、卡片布局)、技术栈(Tailwind CSS + Chart.js),以及最重要的——四个核心分析模块

  1. 1. 核心洞察概览: 开门见山,告诉我最重要的结论。
  2. 2. 标签表现透视: 用雷达图、气泡图等可视化方式,分析不同标签维度的表现力。
  3. 3. 爆款文章画像: 列出TOP 5爆款,并分析它们的成功共性。
  4. 4. 选题策略建议: 给我一个“机会矩阵”,并直接生成3-5个具体的、可以马上动笔的选题方向。

完整的Prompt太长了,我同样放在后台


最后,我让n8n每天定时运行,把飞书里的数据汇总成Markdown,连同这个Prompt一起丢给大模型。

测下来,做html还得是 Cluade4.5 的效果最好。

现在,我把它部署在自己的服务器上,每天早上用手机就能看。

写在最后

这套打法彻底改变了我做内容的方式。

我不再为选题焦虑,而是把更多精力放在了深度思考和打磨内容本身。

希望这套 AI➕自动化的流程也能帮你保护稀缺的注意力,把效率拉满

欢迎三连支持,这对我来说很重要。

对这个流程有什么看法,欢迎留言交流!