说回日报本身想做这个事是因为我有一个具体的痛点——通勤时间太长,在地铁上坐一小时,不找点东西学习实在是浪费时间。
但很多网页的移动端阅读不太友好,而且本人英语阅读速度其实一般……最好能有个前置筛选的过程,让我挑几篇对自己有帮助的再细致研读原文。
需求很简单,即刻开干。我要做一个AI行业日报播报,包括几个要点:
可靠的信息源
自动化每天发日报的流程
便宜、方便的部署方式
信息源这里,我需要覆盖科技、投资和社会价值三个方面。另外,我全部都是用的一手信源,而不是聚合站,这样数据结构更稳定(我也懒),信息梳理不太容易出错,也能保证信息的权威性。
科技我选择了VentureBeat, 它很少炒作概念,专注于讨论 AI 技术的实际落地和企业级应用。
投资相关的我选择了TechCrunch,它对融资、收购和初创企业的报道极其敏锐,也有单独的内容板块。
社会价值我选择了卫报,怎么说呢,老资本主义还是比较端着的,算是一个比较不同的视角,后续应该会考虑增加更多传统媒体。但我在日报里也会将这部分观点单独区分开,以便于读者能更有感知地“脚踏实地仰望星空”。
基于我对自动流程和部署方式的需求,我选择了n8n做实现。
n8n cloud开箱即用,省掉了一系列部署的成本,关于这点,17年我就说过世纪名言【做人,最怕搭建环境】,这个决定应该帮我省了好几个小时甚至几天的成本,毕竟我不是程序员。
n8n支持Schedule Trigger,把工作流搭建好,我每天早晨等着收日报就好了。另外我要看的这些海外网站,用n8n原生的RSS节点就很稳定,扣子之类的么就不确定了,懂的都懂。
搭建好的n8n工作流长这样:
看起来节点有点多,其实蛮简单的:
1、用 n8n 原生 RSS 节点,实时监听 TechCrunch, VentureBeat, Guardian 三大信源的更新动态
2、filter到24小时内的信息
3、再看是否能直接抓到全文,比如良心的VB是可以的,那么就可以直接输出出来,TC和GT还需要一个HTTP节点爬到全文
4、把三个源Merge起来
5、经过大模型处理,生成可以直接渲染的Markdown文本
6、用HTTP节点推送给飞书群或者企业微信群
你可以看到我用了非常多的code节点,虽然都是简单的小code,但我毕竟可以说是一行代码也不会写,所以我全程在和场外嘉宾ChatGPT连线。
我和AI的协同流程是这样的(不止适用于n8n):1、定骨架:我先想清楚自己想做什么,这个清楚程度需要能画的出来流程图,尤其是其他更复杂的场景;
2、模拟方案:把自己想好的流程告诉AI,让他给出大概的n8n搭建框架(我第一次用n8n的时候,还会让他基于我的应用场景deepresearch一整篇行动手册,包括部署、配置、避坑的全部信息);
3、极简原则:(重要)如果发现他用很多节点解决你说的一个节点的问题,就考虑用code;
4、Get Your Hands Dirty ASAP:不需要自己去看手册,直接用AI推荐的节点和配置去配,执行,出错再发给AI改,不断循环,直到搭建完所有的节点。
看起来很美好是吧?但我要提醒一点,AI干活是不会带脑子的,带脑子的始终是你。
(⚠️ 温馨提示:这段避坑看不懂没关系,建议先收藏,等你亲手搭的时候再看)
我花了好几个小时处理三条输入流的Merge。可能你已经发现Merge我用的是code节点,而且命名不是很文明。
GPT让我用Merge把三条线的输出组合起来,但是Merge节点有个致命的问题,就是任意一条输入流中没有item的时候,它就不会执行到下一步。
用户视角去理解,就是这三个信息源但凡某一天没有新闻,日报就挂掉了。
一开始我希望我最严厉的AI助手直接帮我解决掉这个问题,他确实也给了办法,建议在filter前加个seed空数据,保证seed不会被filt掉,但是后面的HTTP节点又会报错。他又建议我在HTTP前面加个if,如果是空数据就不走HTTP,再Merge起来。
我疯了,我说我解决一个Merge的问题,你让我加一个Merge,怎么顾头不顾腚呢。
我这个急性子就上头了,跟GPT大吵三百回合,最后我的理智上线后,问他,能不能用code替代Merge节点。
他说,能。
问题就这么解决了。
吵完架让ChatGPT复盘下是如何浪费我的时间的
这体现了我上面说的两点:
1、不要对工具上瘾,不要崇拜工具,是你用工具,不是工具用你。一旦节点达不到要求,勇敢code,不要用五六七八个节点解决一个节点的问题。
2、不要对AI的owner意识有不切实际的幻想,这条在任何场景都适用。一旦你对结果有明确的预期,你就需要全程带脑子和AI协同。
如果你对这个特定的场景感兴趣,希望能直接上手试试,我会分享一个脱敏版的工作流,你可以加入文章最开始的飞书群获取。
What's Next?
截至目前,我们已经完整搭建出了一个给自己和好朋友们使用的私人AI报纸,但是这个项目的价值还可以进一步挖掘。
我也在尝试可以自动化发布到公域的进一步行动,目前只是部署到了私域的飞书群(不得不说,飞书你真open啊),最后一公里的方案还在思考中,如果你也有想法,或者在探索实现路径,随时找我聊聊。
后续如果有进展,我也会继续分享到公众号。
那么就这样,我们下个产品见。