饼干哥哥是今年3月正式开始干AI自媒体,猛的一下6 月干到了 AI公众号榜单 TOP5
此前我也跑过公众号爆文,几个号都出过 10w➕,最高100w阅读,收入💰5 位数;再往前就是做数据分析博主。或许是这些经验,帮我搭建起了网感,迅速起号。
很多人问我怎么做公众号的,我之前也复盘过:
复盘 4 个月 AI 自媒体,公众号排名 5 月 Top5 / 6 月 Top10
按我的经验,在流量平台,包括公众号,一篇爆款的要素排序是:
选题 > 标题 > 内容逻辑
- 选题,一篇内容读者是否感兴趣很重要
- 标题,解决的是「打开率」的问题
- 内容逻辑,就是写的东西要能让读者看得下去,例如开头要炸场,中间要留阅读钩子,确保「完读率」
其中,选题占了少说 7、80% 的重要性
但问题是很多刚开始的同学没有网感,容易卡在选题上,不知道写什么好?久久未能度过冷启动期。
我刚开始的做法是关注几个博主,每天抽空刷一下他们写什么,数据好的,我就按我的方向来调整成我的选题。就这么简单。
但手动搜集、整理、思考……这种重复的体力劳动,不仅效率低,而且毫无创造性。
在AI时代,这简直是一种“犯罪”。
于是就有了今天的主题:利用n8n➕飞书,做一个ai 公众号自动化选题的Agent/工作流
先看效果,数据源是跟踪了 15 个公众号最近一周的发布内容,计算各种指标,形成一个选题建议,可以动态更新
想想看,这么一份「落地的」选题建议报告每天发到你的邮箱,岂不快哉?
气泡图展示不出来,但在 html 里是完整的。
目前还是 0.1 版本, 比较粗糙,后续我准备在本地用 Claude code 跑个脚本,做更复杂的分析,至少加入日环比,可以更敏感的捕捉到每日的「突发」热点。
感兴趣的可以评论区留言催更!!!
这样一套下来,就能形成一个「垂直知识库」
这个价值非常高,可以拓展的玩法超级多
例如我经常拿@数字生命卡兹克 @卡尔的AI沃茨 等老师的内容跟自己的对比,反思自己哪里写的不好,怎么改进
现在就可以批量从风格、写作逻辑等维度做差异对比。
或者,不做IP的同学,把这个流程拿去做爆文公众号矩阵,一个月干个5位数💰应该不成问题。
我的教培业务也打算接入这套流程全自动完成选题-写作-排版-发布,欢迎关注催更。
废话不多说,接下来我会把这个“选题外挂”的完整搭建思路和盘托出。
它不仅解决了我的选题焦虑,希望看完后,你也能搭建自己的选题情报中心。
先说下整体的搭建逻辑:
一、采集公众号文章
- 我在服务器上部署了一个 wechat2rss,订阅了 15 个 ai主题的公众号
- 在n8n访问它,筛选指定时间的文章,下载保存到飞书,含文章链接
- 在飞书利用快捷字段的 AI 功能给文章都打上固定的几个类型的标签
二、搭建数据分析模型
- 在n8n把文章链接传给「极致了」api,抓取文章的数据:阅读量、评论数、转发率、在看数、点赞数、收藏数
- 在飞书把这些数据做组合指标,例如转发率等
- 把标签和指标组合做交叉分析
三、AI做选题分析报告
- 最终得出哪些标签数据好,背后就是建议做什么样的选题
- 确定选题后,筛选出这些标签的原文,给出具体的选题方向建议、内容结构
- 形成选题方案报告
n8n长这样:
类似的工作流我之前也分享过,后面不会太详细讲,可以先看下面以往更细致的教程来入门:
保姆级教程:用 n8n + 快捷指令,一键无死角把灵感金句存入飞书
n8n+FastAPI=王炸!免费开源我年入7位数的小红书AI矩阵工作流
我的Vibe Marketing实践案例:如何用AI工作流驱动小红书矩阵,实现7位数营收
飞书长这样:
一、采集公众号文章
1. 部署wechat2rss
这一步是为了监控公众号的发布动态。
由于公众号非常封闭,几乎所有公开的 rss 源都不稳定,而且考虑到要做特定的筛选,建议是自己部署。
朋友给我推荐了wechat2rss,私有化部署 15 元/月,还挺稳定
https://wechat2rss.xlab.app/
要通过Docker部署,我用的宝塔面板,整个过程非常丝滑,不用 10 分钟就部署好了。
再花点时间把日常看的老师们公众号都给订阅上(节选)
2. 搭建n8n 监控工作流
这里的逻辑是,向 wechat2rss 请求当前已订阅的所有公众号清单,然后逐个公众号处理:筛选指定时间范围的文章
其中,HTTP 节点请求的是 WeChat2rss 的 list 接口,小白同学可以借助AI浏览器来辅导使用
后面逐个公众号请求文章,请求的是/api/query接口:
接着n8n 的第二个模块就是把前面多个公众号的多篇文章,逐一处理:
1. html转md
wechat2rss中返回的文章都是html,巨长,既不方便我们自己看,也会导致传给 AI 超出上下文
所以我用code 把它转成 markdown 格式了
代码太长了,我放到后台
关注公众号「饼干哥哥AGI」,回复「公众号」即可查看完整文档。
2. 「结构化的」文章摘要
但 markdown 格式依然很长,为了进一步节省上下文,需要对文章做一个浓缩
💡 注意,这里的浓缩关键在于:不能把原文的结构、关键词给省略了
所以是要求用 AI 做一个结构化的文章摘要,在保留尽可能多的信息的前提下,缩短文章长度
后续做分析报告的时候,就让 AI看这个摘要即可。
参考提示词(完整版见原文):
将作者写的长篇文章,改写成一篇**结构完整、信息齐全、逻辑严密**的精简短文。 想象一下,这是为那些时间极其宝贵但又必须掌握你思想精华的核心读者(比如投资人、合作伙伴、高级决策者)准备的“浓缩精华版”。它本身就是一篇独立、完整、且有说服力的作品。
最后,存入飞书的操作可以参考文章:
我用Dify把飞书表格的「AI提示词库」打包成了MCP Server给AI使用和管理
3. 给文章打上内容标签
这一步是把文章量化的过程,用于后续把内容标签与数据指标做交叉分析,我们才能知道哪些关键词内容在近期的势头很好。
但再好的选题,也要符合我们自己的内容方向。
也就是说,公众号其实是越垂直越好,什么都写,只会把标签搞乱。
我的内容方向包括:
1️⃣ AI落地应用案例,如 AI 编程、n8n工作流、AI Agent、AI工作流等;
2️⃣ AI数据分析案例,如AI做数据分析 ppt、用户洞察、自媒体数据分析等;
3️⃣ AI多模态玩法,例如ai生图(nano banana、Seedream、Midjourney)、ai 生视频(Sora2)等
基于此,我让 AI 给我设计了一套提示词(节选):
接着就可以到飞书,用字段捷径-智能标签的功能,来给内容打标
用AI 生成选项把提示词扔进去,就会自动生成好合适的选项
同样,把提示词扔到自定义标签要求,让 AI 逐行去生成内容标签即可。
至此,我们就在飞书得到了监控公众号的文章信息,包括结构完整的摘要以及内容标签。
二、搭建数据分析模型
接下来就可以开始做数据分析的工作, 但要先把文章的数据给补上。
4. 数据采集
我用的是极致了数据服务,采集一次 0.05 元
https://dajiala.com/main/interface?actnav=0
接着就可以在n8n搭建流程,逐个把文章链接 post 给极致了,返回数据存入飞书即可。
其中,http 请求返回的数据结构长这样:
5. 搭建指标体系
单纯看绝对值(如阅读量、点赞数)容易产生误导,这里有平台推流、账号规模不同的问题。
例如一篇10万阅读的文章有100个转发,和一篇1000阅读的文章有50个转发,哪个更具传播潜力?显然是后者。
所以我们要通过“比率化”和“加权化”的方式消除量纲 ,并做多维评估。
至少要有 4 个指标:
1. 互动率 (Engagement Rate)
- 这是文章内容“及格线”的基础指标,反映了内容是否对读者有基本的吸引力。
- 计算公式:(点赞数+在看数)/阅读量*1000
2. 传播指数 (Virality Index)
- 衡量内容在微信生态内的“裂变”和“破圈”能力。
- 计算公式:传播指数=(转发数×2+在看数)/阅读量*1000
3. 内容价值指数 (Content Value Index)
- 这个指标反映了你的内容是否“有料”,是否值得读者反复学习或深入探讨。
- 计算公式:内容价值指数=(收藏数×2+评论数)/阅读量*1000
4. 综合热度分 (Overall Hotness Score)
- 这是一个“总分”,便于进行 Top-N 的分析。
- 计算公式: 综合热度分 =(点赞数×1+在看数×2+评论数×3+收藏数×4+转发数×5)/ 阅读量×100
直接在飞书新建公式列即可:
三、选题分析报告
我写了一个极其详尽的Prompt,命令AI扮演“顶尖数据分析师+前端开发专家”,接收我整理好的所有文章数据,然后生成一份酷炫、可交互的单文件HTML报告。
这个Prompt非常长,它定义了报告的风格(深色主题、卡片布局)、技术栈(Tailwind CSS + Chart.js),以及最重要的——四个核心分析模块:
1. 核心洞察概览: 开门见山,告诉我最重要的结论。 2. 标签表现透视: 用雷达图、气泡图等可视化方式,分析不同标签维度的表现力。 3. 爆款文章画像: 列出TOP 5爆款,并分析它们的成功共性。 4. 选题策略建议: 给我一个“机会矩阵”,并直接生成3-5个具体的、可以马上动笔的选题方向。
(完整的Prompt太长了,我同样放在后台)
最后,我让n8n每天定时运行,把飞书里的数据汇总成Markdown,连同这个Prompt一起丢给大模型。
测下来,做html还得是 Cluade4.5 的效果最好。
现在,我把它部署在自己的服务器上,每天早上用手机就能看。
写在最后
这套打法彻底改变了我做内容的方式。
我不再为选题焦虑,而是把更多精力放在了深度思考和打磨内容本身。
希望这套 AI➕自动化的流程也能帮你保护稀缺的注意力,把效率拉满
欢迎三连支持,这对我来说很重要。
对这个流程有什么看法,欢迎留言交流!