最近读了麦肯锡的一篇采访文章,访谈对象是 Jellyfish 的 CEO Andrew Lau,主题是 AI 对软件研发效率的真实影响。
这不是一篇讲“AI 多厉害”“程序员会不会被取代”的文章,相反,它讨论的是一个更现实、也更困难的问题:
企业到底该怎么判断:AI 真的提高了研发效率吗?
以及——
如果提高了,为什么很多团队却“感觉没那么明显”?
一、这次变化,可能比云和敏捷都大
Andrew Lau 在采访里有一个非常明确的判断:
未来三年,整个软件研发流程(PDLC)都会被重新定义。
过去 20 年,软件开发基本遵循一条稳定路径:
需求定义
开发(IDE)
代码管理
CI/CD
测试
发布与监控
AI 的出现,不是把其中某一步“加速一点”,而是可能重写整条链路。
这也是他认为:
这次变化,甚至比当年的云化、敏捷转型还要大。
二、最关键的变化,不是技术,而是“人”
采访中有一句话我印象很深:
The shift is not just technical — it is human.
这次转变,不只是技术的,而是人的。
什么意思?
当一个开发者开始大量使用 AI:
于是角色开始模糊:
开发者开始像架构师、产品经理
产品经理开始像设计师、系统建模者
真正变难的,不再是“怎么写代码”,而是“到底要做什么”。
三、为什么很多公司“用了 AI”,但效果一般?
Andrew 把企业的 AI 转型拆成了三层,非常现实:
第一层:有没有人在用(Adoption)
如果大部分人不用,一切免谈
不只是“装没装工具”,而是真正在用、常态化使用
第二层:流程是否真的更快
看的是系统级指标,而不是个人感觉,比如:
如果 coding 变快了,但 review、测试、合规没跟上,
瓶颈只是被挪了位置。
第三层:业务结果有没有变好
最终还是要回到:
Roadmap 是否更快兑现
缺陷率是否下降
客户体验是否改善
四、一个很“反直觉”的数据
Jellyfish 跟踪了 600 多家企业,发现:
差别不在工具,而在:
是否全员 adoption
是否调整流程
是否重构角色与激励机制
只给程序员发一个 Copilot,远远不够。
五、下一波 AI 的战场,不在写代码
采访里提到,下一阶段真正困难、也最有价值的地方在于:
Code Review
跨阶段协同的 Agent 系统
测试与质量保障
尤其是测试:
自动化测试的前提,是“什么是对的”
但很多老系统,根本没有清晰的规格定义
在强合规行业,这个问题更尖锐:
AI 能不能算“独立审查者”?现在还不行。
所以 AI 并不会减少合规要求,反而要求:
更早、更前置、更系统化的控制。
六、一个很“老工程师”的结论
采访最后的判断,其实非常朴素:
过去我们以为 coding 最难,
现在发现,定义清楚要做什么才是最难的。
未来人的价值,不在于敲代码,而在于:
写在最后
这篇麦肯锡的采访,真正有价值的不是结论本身,而是它点出了一个很多团队正在经历、但还没说清楚的事实:
AI 不是效率工具升级,而是一次研发组织与角色的再设计。
如果组织、流程、激励机制不变,
AI 只会让局部更快,而系统依然拥堵。
本文基于麦肯锡(McKinsey)对 Jellyfish CEO Andrew Lau 的采访内容整理与思考,原文为英文采访,本文为个人理解与再表达。