我的AI编程:重新思考代码审查的必要性
在AI辅助编程一段时间后,对于哪些功能可以一气呵成、哪些需要分步实现,逐渐会积累出直觉。
通常,对于信心较高的代码,我往往只花很少时间 review,甚至略过。而信心不足的部分,则会认真检查。毕竟,review 本身也是一件耗时耗力的事。
今天开发时,就有几处我自认为很有把握的代码,没有经过 review 便直接提交了。结果问题直到测试阶段才暴露出来,导致自动构建、部署多花了不少时间,也耗费了更多精力去定位和修复。
实际上,AI 编程助手本身有时也会尝试对代码进行“自我审查”,但效果并不稳定。
另外还有一种情况,是 AI 模型偶尔会表现失常,也就是所谓的“降智”,具体原因比较复杂,可能是大模型服务稳定性的原因,或者是编程助手Agent的原因。
因此,今后在察觉到“信心”与“实际效果”出现落差时,还是应当花时间仔细 review 代码。表面上看这似乎增加了额外步骤,但实际上能避免后续反复测试、修改所带来的更大时间成本,从整体来看反而是更高效的做法。
大家平时都是如何进行代码 review 的?欢迎在评论区分享你的经验与心得。