建立一道过滤器,只捕捉对你工作真正重要的东西。
撰文:Machina
编辑:AididiaoJP,Foresight News
Opus 4.6 发布才 20 分钟,GPT-5.3 Codex 就登场了……同一天,两个新版本都号称「颠覆一切」。
再前一天,Kling 3.0 面世,号称「永远改变了 AI 视频制作」。
再前一天……好像还有别的东西,现在都想不起来了。
现在几乎每周都是这样:新模型、新工具、新基准、新文章层出不穷,都在告诉你:如果你现在不用上这个,你就已经落伍了。
这带来了一种持续的、挥之不去的低度压力……总有新东西要学,新东西要试,新东西据说又要改变游戏规则。
但在这些年测试了几乎所有主要版本后,我发现了一个关键:
问题的根源,不在于 AI 界发生的事情太多。
而在于正在发生的事情与对你的工作真正重要的事之间,缺少一道过滤器。
这篇文章,就是这道过滤器。我会详细告诉你,如何既跟上 AI 步伐,又不被它淹没。
在找方法之前,先明白背后的运作机制。同时有三股力量在起作用:
每个创作者,包括我自己,都知道一个道理:把每次发布说得像是天大的事,才能获得更多流量。
「这改变了一切」的标题,就是比「这只是对多数人的小幅改进」更吸引眼球。
所以音量总是开到最大,哪怕实际影响可能只有一小部分。
不是机会,而是损失,心理学家称之为「损失厌恶」。我们的大脑对「我可能错过了什么」的感受强度,大约是「哇,多了个新选择」的两倍。
这就是为什么一个新模型发布,会让你焦虑,却让别人兴奋。
模型几十个,工具上百种,文章和视频遍地都是……却没人告诉你从哪里开始。
当「菜单」过于庞大时,大多数人都会愣住,不是因为缺乏自律,而是决策空间太大,大脑处理不过来。
这三种力量合在一起,制造了一个典型的陷阱:懂很多 AI 知识,却没用它做出过任何东西。
收藏的推文越积越多,下载的提示包堆满灰尘,同时订阅多个服务却都没真正用过。总有更多信息要消化,却从来分不清什么才值得关注。
要解决这个问题,不能靠获取更多知识,而是需要一道过滤器。
跟上 AI 潮流,不意味着:
那是纯粹的消费,不是能力。
跟上潮流,意味着拥有一个系统,能自动回答一个问题:
「这对『我的』工作重要吗?……是,还是不是?」
这才是关键。
事实上,每周发布的东西,有一半对大多数人的实际工作流程毫无影响。
那些看起来「走在前面」的人,消费的信息不是更多,而是少得多——但他们过滤掉的,都是「正确的」无用信息。
这是消除焦虑最有效的一招。
别再每天刷 X(推特)去捕捉新动态了。建立一个简单的智能体,让它帮你抓取信息,并每周递送一份根据你的背景过滤后的摘要。
用 n8n 设置,大概不到一小时就能搞定。
工作流程如下:
步骤 1:定义你的信息来源
挑选 5-10 个可靠的 AI 新闻源。比如,那些客观报道新发布的 X 账号(避开纯炒作的)、优质的新闻简报、RSS 订阅源等。
步骤 2:设置信息抓取
n8n 里有 RSS、HTTP 请求、邮件触发等节点。
把每个新闻源作为输入连起来,并把工作流设定在每周六或日运行,一次性处理一整周的内容。
步骤 3:构建过滤层(这是核心)
添加一个 AI 节点(通过 API 调用 Claude 或 GPT),并给它一个包含你背景的提示词,比如:
「以下是我的工作背景:[你的职位、常用工具、日常任务、所在行业]。请从下面的 AI 新闻条目中,只挑出那些会直接影响我具体工作流程的发布。对每个相关的条目,用两句话解释它为什么对我的工作重要,以及我应该测试什么。其他一切全部忽略。」
这个智能体知道了你每天在做什么,就能用这个标准来过滤一切。
文案撰稿人只会收到文本模型更新的提醒,开发者会收到编码工具的提醒,视频制作者会收到生成模型的提醒。
其他不相关的,都会被默默筛掉。
步骤 4:格式化并交付
把过滤后的内容整理成一份清晰的摘要,结构可以这样:
每周日晚上,把它发送到你的 Slack、邮箱或 Notion。
于是,周一早晨会是这样的:
不再需要怀着熟悉的焦虑打开 X……因为周日晚上,简报已经回答了所有问题:这周有什么新东西,哪些与我的工作相关,哪些可以完全不理。
当某个新玩意通过了过滤器,看起来可能有用时,下一步不是去读更多关于它的文章。
而是直接打开这个工具,用你真实的、工作中的提示词去运行测试。
别用发布日那些精心挑选的完美演示,别用那些「看它能做什么」的截图,就用你每天干活时真正用的那些提示词。
这是我的测试流程,大约 30 分钟:
就这样,30 分钟,你就能得到真实的结论。
关键在于:每次都使用完全相同的提示词。
不要用新模型最擅长的东西去测试(那正是发布会演示的)。要用你每天的工作内容去测试——只有这个数据才真正重要。
昨天 Opus 4.6 发布时,我就走了这个流程。我的 5 个提示词里,3 个表现和现有工具差不多,1 个稍好一点,1 个实际上更差。总共花了 25 分钟。
测试完,我安心回去工作,因为我对具体工作流是否有提升,有了清晰的答案,不再瞎猜自己是不是落伍了。
这个方法的强大之处在于:
大多数号称「颠覆性」的发布,其实通不过这个测试。营销说得天花乱坠,基准测试分数碾压,但拿到实际工作中一跑……结果差不多。
一旦你清晰地看到这种模式(大概测试 3-4 次后就会看清),你对新发布的紧迫感就会大幅下降。
因为这个模式揭示了一个重要事实:模型之间的性能差距正在缩小,但善于使用模型的人和只会追模型新闻的人之间的差距,却每周都在拉大。
每次测试,就问自己三个问题:
三个答案都必须为「是」,只要有一个不是,就继续用现在的工具。
这是一个能串起整个系统的心智模型。
每一个 AI 发布,都属于以下两类之一:
基准发布:模型在标准化测试中分数更高了;处理极端情况更好了;处理速度更快了。这对研究员和排行榜爱好者很棒,但对某个普通的周二下午要干活的人来说,基本无关。
业务发布:出现了真正新颖的东西,这周就能用到实际工作流中:比如一项新能力、一个新集成、一个能切实减少你某项重复工作摩擦的功能。
关键是:90% 的发布,都是「基准发布」,却包装成了「业务发布」。
每次发布的营销,都绞尽脑汁让你觉得,那 3% 的测试分数提升,将会改变你的工作方式……有时确实会,但大多数时候不会。
「基准谎言」的例子
每次新模型发布,各种图表就满天飞:编码评测、推理基准、漂亮的曲线图显示模型 X 「碾压」了模型 Y。
但基准测试测量的是在受控环境下,使用标准化输入的表现……它测不出一个模型处理你特定的提示词、你特定的业务问题时到底好不好用。
当 GPT-5 发布时,基准测试成绩好得吓人。
但我当天用自己的工作流一测试……一小时内就换回了 Claude。
一个简单的问题,可以刺穿所有发布公告的迷雾:「我这周能在工作中,可靠地用它吗?」
坚持用这个标准分类 2-3 周后,你就会形成条件反射。一个新发布出现在时间线上,30 秒内你就能判断:它值得我花 30 分钟关注,还是完全无视。
当这三件事叠加生效时,一切都会改变:
最终结果是:AI 新发布不再让你感到威胁,而回归其本来面目——更新。
有些相关,大多数无关,一切尽在掌握。
未来在 AI 领域胜出的人,不会是那些知道每次发布的人。
他们会是那些建立了一套系统,能识别哪些发布对自己工作真正重要,并深入钻研,而其他人还在信息洪流中挣扎的人。
当前 AI 领域真正的竞争优势,不是获取渠道(大家都有),而是知道该关注什么、忽略什么。这种能力很少被谈论,因为它不如展示酷炫的新模型输出那么吸引眼球。
但正是这种能力,将实干者与信息收藏家区分开来。
这个系统很有效,我自己就在用。但是,测试每个新发布、为你的业务寻找新应用、搭建和维护这套系统……这本身几乎就是一份全职工作。
这也正是我创建 weeklyaiops.com 的原因。
它就是这套已经建好、在运行的系统。每周一份简报,经过亲自测试,为你分辨什么是真有用,什么是只有好看的基准分数。
并且附上分步指南,让你当周就能用上。
你不用自己去搭建 n8n 智能体、设置过滤器、做测试……这些都由一个在业务中应用 AI 多年的人替你做好了。
如果这能为你节省时间,链接就在那里:weeklyaiops.com
但无论你是否加入,这篇文章的核心观点都同样重要:
停止试图跟上一切。
建立一道过滤器,只捕捉对你工作真正重要的东西。
亲手去测试。
学会分辨基准噪音和真正的业务价值。
新发布的节奏不会放慢,只会越来越快。
但只要有了一套正确的系统,这就不再是个问题,反而会成为你的优势。
【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
