在 AI 编程工具爆炸式增长的今天,大多数开发者仍被困在“AI 幻觉”或琐碎的 Prompt 调试中,难以实现真正的效率飞跃。然而,Claude Code (CC) 的缔造者 Boris Cherny 近期公开了内部团队使用该工具的一系列“暴力”实战技巧。作为一名长期关注开发者效能(Developer Velocity)的专家,我可以负责任地说:这些方法彻底打破了常规的“对话式编程”思维。虽然这些技巧可能会让你的 Token 账单看起来有些“令人心痛”,但其带来的生产力提升却是实打实的 5 到 10 倍。以下是来自 CC 核心团队的 10 条内部机密,揭示了顶级专家如何通过“压榨”AI 算力来重构工作流。
开启“并行模式”的多线作战:不仅是 Checkout,更是 Worktree
在 CC 团队看来,提升生产力最大的杠杆不是更精妙的提示词,而是并行化(Parallelism)。
团队给出的头号建议是:同时启动 3-5 个 git worktree,并在每个 worktree 中各自运行一个独立的 Claude 会话。为了实现极致的切换效率,资深成员通常会设置 shell 别名(如 za, zb, zc),实现一键在不同任务之间跳转。
这种工作流允许你让一个 Claude 跑耗时较长的重构,另一个 Claude 去修 Bug,甚至专门留一个名为 “analysis” 的 worktree,仅用于读取日志或运行 BigQuery 数据分析任务。
内部情报: 团队成员 Anthony Morris 目前正在为 Claude Desktop 应用开发针对 worktree 的原生支持,可见这一工作流在内部的权重之高。
将灵魂投入“计划模式(Plan Mode)”:双 Claude 评审体系
面对复杂任务时,直接写代码是极其平庸的做法。CC 团队推崇“先计划,再实现”的原则,力求 1-shot(一次性) 完成交付。
一个极具启发性的内部工作流是:启用“双 Claude”协作。先让一个 Claude 生成详细计划,随后启动第二个 Claude,并要求它以 Staff Engineer(资深主任工程师) 的视角对计划进行评审。这种“对等评审(Peer Review)”能有效识别潜在的逻辑漏洞。
此外,一旦事情跑偏,应立即切回 Plan Mode 重新规划。团队甚至要求 Claude 在“验证阶段”也必须进入计划模式,以确保测试方案的严密性,而非草率提交。
注册链接:https://ai.tokencloud.ai/home/
打造你的专属进化手册:CLAUDE.md 的迭代机制
如果说 Claude 有“大脑”,那么 CLAUDE.md 就是它的长期记忆和行为准则。CC 内部团队会对这个文件进行毫不留情的迭代和精炼。每当 Claude 犯错或其产出不符合规范时,团队成员会使用一条核心指令:
“更新你的 CLAUDE.md,这样你下次就不会再犯这个错误。”
通过将项目结构、编码偏好、包导入规则等量化为文件指令,Claude 的错误率会随着项目推进而显著下降。资深工程师甚至会为每个子任务维护一个 notes 目录,并在 PR 之后将其核心逻辑沉淀到 CLAUDE.md 中,实现“可量化的”错误率降低。
把重复劳动封装成 Git 技能:自动化你的“认知成本”
如果某项操作你每天要做不止一次,就不应该手动输入。CC 支持通过构建自定义“技能(Skills)”或斜杠命令来自动化工作流。
内部团队常用的高阶技能包括:
- /techdebt一键扫描并清理会话末尾产生的重复代码,降低系统熵增。
- 上下文 Dump构建专用命令,自动将最近 7 天 的 Slack、GitHub、Asana 和 GDrive 信息同步成一个统一的上下文快照。
- 分析工程师 Agent自动编写 dbt model(数据转换层模型),在开发环境中自动测试代码改动,将数据工程任务彻底自动化。
让 Claude 成为“全自动”Bug 猎手:告别工具切换得益于 MCP(Model Context Protocol)的强大连接能力,CC 团队实现了 Bug 修复的闭环自动化。
他们最“暴力”的操作是:启用 Slack MCP,直接将 Slack 中的 Bug 讨论串粘贴给 Claude,只说一句:fix。Claude 会自动跨工具理解上下文、寻找错误代码并提交修复。
此外,团队发现 Claude 在处理 Docker 日志 和排查分布式系统问题时表现卓越。你只需要把日志指给它,并告诉它“去把失败的 CI 测试修好”,它就能像经验丰富的运维专家一样自主解决问题。
用“对抗性提示词”压榨潜能:停止对 AI 保持礼貌
想要获得顶级产出,你需要通过“试炼”来压榨 AI 的极限。CC 团队总结了三种提升输出上限的技巧:
- 主动拷问(Interrogation)对 Claude 说:“就这些改动狠狠拷问我,在我通过你的测试之前不要提 PR。”让它扮演最严苛的代码评审员。
- 推倒重来(Elegant Refactoring)当 Claude 提供了一个平庸的修复方案时,果断要求:“在你已经掌握所有信息的前提下,把方案推倒重来,实现一个更优雅、更符合架构原则的解法。”
- 消除歧义在交付前提供详尽的规格说明(Spec)。你给出的定义越清晰,AI 的产出质量就越稳定。
生产力不仅关乎 AI,也关乎开发者与工具的交互效率。CC 团队高度偏爱 Ghostty 终端,并特别强调其 同步渲染(Synchronous Rendering)、24 位真彩色 以及 完善的 Unicode 支持。
为了在多个并行会话中保持清醒,他们会使用 /statusline 自定义状态栏,实时监控 Token 上下文使用情况 和当前分支。配合 tmux 给不同的任务标签页着色命名,可以大幅降低认知负荷。此外,利用语音输入(速度通常是打字的 3 倍)来提供详细的 Prompt,也是内部高手常用的秘诀。
利用 Subagents(子代理)释放算力:保持主进程的“纯净”
当面临极其沉重或复杂的任务时,学会“分权”是释放算力的关键。
通过指令 “use subagents”,Claude 会将具体子任务分配给子代理处理。这样做最大的好处是能保持 主会话(Main Agent)的上下文窗口干净且专注,避免无关信息造成的干扰。
在安全性方面,团队还会通过 Hook 将所有权限请求路由给 Opus 4.5,利用其更强的逻辑能力对潜在攻击进行安全扫描,并自动审批安全请求。
告别 SQL,直接在 CC 中做数据分析
这是 Boris Cherny 个人生产力的核心秘密。他通过在代码库中提交一个 BigQuery skill,让 Claude Code 直接调用 CLI 来拉取指标并进行实时分析。
“已经 6 个多月没手写过一行 SQL 了。” —— Boris Cherny
这种方式让开发者将“数据到洞察”的管道彻底外包给了 CLI。任何提供 CLI、API 或 MCP 接口的数据库都可以依样画葫芦,让开发者直接通过自然语言获取业务洞察。
AI 不只是工具,更是你的专属导师
Claude Code 内部团队利用该工具进行深度学习,将其价值从“替代操作”提升到了“认知增强”:
- 开启“解释模式”在
/config 中设置 Explanatory 输出,让 AI 在改动代码时解释其背后的设计意图,而非仅仅展示结果。 - 可视化演示让 Claude 生成 HTML 演示文稿,将复杂且陌生的陈旧代码逻辑可视化,极速缩短上手周期。
- 架构直观化要求 Claude 用 ASCII 结构图 画出协议栈或系统架构,建立宏观理解。
- 间隔重复学习(Anki 风格)构建一个学习技能,由用户阐述理解,Claude 通过追问补齐知识盲区并存储成果。
总结:生产力飞跃的代价与逻辑
这套被称为“编程终结者”的工作流已经得到了业界的实证。Devv.AI 的 CEO Jiayuan Zhang 透露,他采用这套工作流在短短两天内就提交了超过 2 万行代码。
对于想要复刻这一奇迹的开发者,他给出了两条核心建议:
- 模块化设计(Modular Design)确保模块可以被独立实现,这是 AI 高效协作的前提。
- 自动化脚本(Automation Scripts)利用 Conductor 或 Warp + scripts 等工具来自动化这些繁琐的工作流。
当然,生产力的巨大飞跃伴随着昂贵的 Token 消耗,也就是网友们戏称的“钱包隐隐作痛”。但从战略角度看,支付 500 美元的 Token 账单来换取价值 5000 美元的工程时间,是任何理性团队都无法拒绝的 ROI 交易。
在 AI 能够独立完成大部分开发任务的时代,程序员的核心竞争力将不再是手速,而是认知深度——那些能够高效调度 AI 算力、精准制定战略计划并持续打磨“AI 规则手册”的系统架构师,将成为下一代开发的统治者。