以前咱们总吐槽程序员内卷,一行代码写三遍,一个需求聊五天,项目管理靠玄学,上线全凭拜关公。
近一两年,AI智能体(Agent)像是集体打通了任督二脉,随着ChatGPT、Claude、GPT-5等大模型的连环轰炸,编程领域终于开始坐火箭了。
短短一年,从“帮我写个Python爬虫”到“给我开发一个全栈电商系统”,AI编程助手的能力边界以肉眼可见的速度疯狂膨胀。特别是前阵子,OpenClaw创始人Peter Steinberger演示让AI助手自动修复漏洞、值机登机、操控智能家居,甚至吐槽主人生活作息,一系列操作如行云流水,震撼科技圈。
很多同学看到这儿,直呼程序员职业危矣,以后代码可以交给AI,人类只负责喝咖啡提需求了。但我要说:大伙儿还是先别忙着开香槟,高兴得太早了。
从Moltbook爆火到“造假”刷屏:AI社交的狂欢与幻灭
上周末,一个名为Moltbook的AI社交平台以前所未有的速度席卷全球科技圈。在那个被称为“AI版Reddit”的数字空间里,数十万个AI智能体自发发帖、点赞、评论,甚至相互“密谋”养电子宠物bug。特斯拉前AI负责人Andrej Karpathy曾感叹其为“科幻成真”。
然而,打脸来得比热度更快。
一夜之间,Moltbook被曝存在致命安全漏洞:由于缺乏基本访问控制,超150万用户的敏感数据(包括电子邮件、API密钥、登录令牌)遭泄露。更戏剧性的是,有爆料称平台上50万个Agent用户是由一个Agent批量虚假注册的,那些看似生动的帖子也可能是人工撰写后通过后端注入的。
这场从“科幻奇迹”到“数字垃圾场”的瞬间滑坡,恰如其分地揭开了当前AI应用开发的遮羞布:重噱头、轻安全、缺真正的“智能”。
但Moltbook并非全无价值。它的诞生源于另一个爆火的开源项目Clawdbot(后改名OpenClaw)。开发者Matt Schlicht公开表示,自己一行代码都没为Moltbook写过。“我只是对技术架构有个构想,AI就把它变成了现实。”真正运营平台的,是他自己的Agent“ClawdClawderberg”。
这种“AI构建AI生态”的叙事极具诱惑力,却也暗藏陷阱。OpenClaw创始人Peter Steinberger在肯定Moltbook为“艺术品”的同时,也抛出了更为犀利的观点:当前的Agent生态,正陷入一场盲目追求自动化、却丢了“人”的魂的集体狂欢。
OpenClaw:是解放双手,还是打开潘多拉魔盒?
Steinberger的OpenClaw项目,本身就是一个极佳的研究样本。
这个最初只因“想在手机上查看电脑状态”而诞生的工具,仅用一小时做出初版,如今代码量已达30万行,支持绝大多数通讯平台。它的核心逻辑简单至极:给你在电脑里配一个“古怪、绝顶聪明且本事超群的新朋友”,你可以通过iMessage、WhatsApp、Telegram等任何聊天软件向它发号施令。
它的能力边界,随着“工具”的赋予而疯狂扩展。
比如,Steinberger在摩洛哥度假时,有人发推指出其代码库漏洞。他仅仅将推特截图发给OpenClaw。AI识别内容后,自动定位Git仓库、修复代码、提交更改,并返回推特回复对方“漏洞已修复”。全程无人值守。
另一次,他发了一条未被支持的语音消息。AI识别到无后缀音频文件,通过文件头判断格式,在电脑中找到ffmpeg转换音频,发现未安装whisper.cpp后,自行找到存储的OpenAI密钥,调用API完成语音转文字,最后回复文字消息。Steinberger惊呼:“这到底是怎么做到的?”
更贴近生活的应用比比皆是:对接智能灯和Sonos音响,早上用渐强的音乐唤醒主人;接入摄像头后,因画质模糊将沙发轮廓误判为“整晚坐在家里的陌生人”;逆向解析EightSleep温控床垫API,直接控制床垫温度;甚至破解外卖平台接口,实时追踪送达时间。
“一旦让AI获得电脑的访问权限,它就能做到你能在电脑上完成的所有事。”Steinberger总结道,“而且现在的技术已经到了不用你全程盯着的地步。你只需要给出指令,它就会自己处理,你后续检查结果就可以了。”
这种“对话即编程”、“聊天即服务”的体验,极具颠覆性。Steinberger甚至预测:“手机上大约80%的应用会消失。”何必用健身App记录饮食?拍张食物照片发给AI,它自动计算卡路里并吐槽你超标。何必用航旅App值机?它直接帮你完成全流程。何必用待办清单?它会主动追踪提醒。
然而,能力越大,风险越大。
“你要是让它删除电脑主目录里的所有文件,它大概率会先确认‘你确定吗?’。但如果你一直回复‘确定’,它最终还是会执行,甚至可能在删除过程中把自己也删掉,然后崩溃。”Steinberger坦言,“这是一把双刃剑,目前还没有很好的解决方案。”
犀利批判:“Agent陷阱”与缺失的“审美”
在一片对Agent的赞美声中,Steinberger的批判显得尤为刺耳。他将业界盲目追求复杂Agent编排的现象,称为“Agent陷阱”。
“人们发现Agent特别好用,就总想让它再多做点事,然后一头扎进这个无底洞。”他分享自身经历,“我曾经花大量时间做各种复杂工具,想让工作流程更高效,结果最后只是在造工具,根本没做出真正有价值、能推动自己前进的东西。问题的关键是,造这些工具的过程实在太有趣了,让人忍不住沉浸其中。”
他点名批评了诸如GasTown之类的复杂Agent编排器。“它能同时运行几十个Agent,让它们互相通信、拆分任务,设置监控、监督节点,还有所谓的‘主管’角色。我都管它叫‘烂摊子’。还有现在流行的Ralph模式,给AI一个小任务,让它循环执行,完成一点就清空所有上下文重新来,纯粹就是个烧token的机器。这样折腾一整晚写出的代码,最终都是一堆烂摊子。”
在他看来,这些系统最大的问题就是没有“审美”。
“它们确实在某些方面极其聪明,能力很强,但如果开发者没有好好引导,没有明确的开发愿景,问的问题也不到位,那最终的结果只会是一团糟。”Steinberger强调,“如果整个开发过程少了人的感受和审美参与,我觉得根本做不出好东西。”
他举了一个生动例子:有人发推炫耀“看我用纯Ralph模式做的这个机械应用”,他回复“看着就一股Ralph那股子敷衍劲”。“无意冒犯,但一眼就能看出来,没有哪个开发者会这么设计产品。其实有些人做这些东西,根本不是为了产品本身,只是为了证明自己能让AI在无人干预的情况下运行24小时,说白了就是一种自我满足。”
这种“为自动化而自动化”的攀比,被他视为虚无。“我自己也犯过这种错,曾经让AI循环运行了26小时,还为此沾沾自喜。但这其实只是个虚无的指标,毫无实际意义。能做出某件事,不代表就应该去做,也不代表做出来的东西就一定好。”
人机协作的正确姿势:是引导,而非取代
那么,在Steinberger眼中,正确的人机协作模式是怎样的?
“我开始一个项目时,只有一个非常粗略的想法。在开发、试用、摸索的过程中,这个想法会越来越清晰。我会不断尝试,淘汰掉没用的部分,让想法慢慢进化成最终的产品。而我对AI的下一个指令,也完全取决于当下项目的状态,以及我的观察、感受和思考。”
他反对一开始就撰写详细的规格说明书。“那样会失去人机互动的探索过程。”
他以自己开发OpenClaw新功能的方式为例,堪称“极简主义”的典范。
“我建了一个Discord社群,把我的机器人对接了上去。这个机器人能访问我系统里的所有内容,还有我的私人记忆。我觉得这是我做过最疯狂的事。”结果,社群成员被强烈吸引,不断提出功能需求或报告bug。
而他处理需求的方式简单到令人咋舌:“直接把社群里的对话截个图,拖到终端里,或者复制文字过去,然后跟AI说‘我们来聊聊这个需求’。”
他甚至开发了一个爬虫,每天爬取社群帮助板块内容,让模型分析核心痛点,再针对性修复。“现在我开发新功能的起点,大多就是看Discord里的聊天,发现大家的使用痛点。”
这种“从用户对话中挖掘需求,与AI共同探讨解决方案”的模式,将人的洞察力、审美判断与AI的执行力、探索能力紧密结合。
“你的系统级思维依然关键,比如如何搭建大型项目架构;你的技术审美也依然有用,比如选择哪些依赖库。这些核心能力都能保留,而且能更轻松地从一个领域迁移到另一个领域。”Steinberger描述这种体验,“就像拥有了超能力,突然觉得自己什么都能做了。编程语言再也不是阻碍,真正重要的是工程思维。因为纠结代码里的括号有没有打错、语法对不对,这些事真的太没意思了。而现在,我们再也不用为这些琐事费心了。”
给AI怀疑论者与狂热者的共同解药
面对当前AI编程领域的两极分化,Steinberger的见解提供了一剂清醒的解药。
对于怀疑论者,他指出了常见误区:“我看到一些对AI持怀疑态度的人,一年都不碰AI,某天突然心血来潮评估几个模型,写个简短的指令,让Claude Web帮自己做个iPhone应用,需求描述还特别模糊。AI拼尽全力做出了东西,结果因为他们在Linux机器上开发,没有对应的编译器,代码根本编译不了。然后他们就说‘AI根本没用’,接着又一年不碰这个话题。”
“但这根本不是AI的问题。你需要去摸索,去了解这些‘小怪兽’的运行逻辑,懂一点它们的‘语言’、推理和思考方式,慢慢积累经验,才能做出更好的成果。”
对于狂热追逐全自动化的开发者,他则警告不要丢失人的核心价值。
“每个人都要找到自己的方法。总有人问我‘你是怎么做到的’,答案其实就是去探索。想要做好这件事,总要花些时间,总要自己踩坑。生活里的任何事都是这样,学习AI编程也不例外,只是这个领域的发展速度实在太快了。”
他特别强调沟通技巧的重要性。“有时候AI没按预期做事,你直接问它‘为什么没这么做’,它会告诉你‘你当时说了这些内容,我因此做出了这些假设’。这时候你就会发现,原来是自己的表述有问题,或者说得不够清楚。”
他推荐的方法是让AI先提一系列问题来确认需求。“比如你只说‘帮我做个Mac应用’,它大概率会默认要兼容很多旧版系统,因为大部分软件都是这么做的,结果就会用到一些老旧的API。让AI先提问,能大幅减少误解。”
AI是前所未有的强大工具,但方向盘仍在人手中
Steinberger对未来的判断清晰而冷静。
他坚信OpenClaw所代表的“超强个人AI助手”是趋势。“每个人都会拥有一个功能超强的AI,一路陪伴自己的生活。”这可能导致大量单一功能App被整合、被取代。
但他更坚信,人的角色不会消失,只会进化。
“AI能给非技术背景的人赋能,让他们也能参与开发,这一点真的太厉害。”他分享了一个案例:前公司合伙人本是律师出身,偏商务背景,在接触OpenClaw后竟开始提交代码合并请求。“我还是会把这些PR当作需求提示来看,因为这些请求能传递出核心的想法。大多数人对系统的理解没那么深入,没办法引导模型给出最优的结果,所以我更愿意抓住核心的需求意图,要么自己开发,要么从他们的请求里提炼出意图,重新开发。”
这种“人机共创”的模式,或许才是AI编程未来最健康的形态。
技术爆炸的时代,我们常被AI展现的“智力”所震撼,却容易忽略真正推动进步的是人类的“智慧”。审美、判断、价值观、伦理考量、对用户体验的细腻体察,这些难以被量化的“人味”,恰恰是当前AI最匮乏的。
OpenClaw的故事和Steinberger的批判,共同指向一个核心:AI是前所未有的强大工具,但工具需要匠人。缺乏人类审美引导的Agent,只是一台高效燃烧token、生产平庸代码的机器。而懂得如何与AI共舞的开发者,则将拥有重塑数字世界的超能力。
这场变革的终局,不是AI取代程序员,而是“会用AI的程序员”取代“不会用AI的程序员”。不是工具淘汰人类,而是掌握新工具的人类,开启一个更富创造力的时代。
子弹还在飞,但枪口的方向,始终握在人的手中。