开篇:一个尴尬的起点
我是学计算机应用的。理论上,我应该会写代码。但事实是——工作这些年,我从来没有在生产环境写过一行代码。不是不会,是不必。
所以当我在2025年开始用DeepSeek和Kimi构建量化交易系统时,连我自己都觉得魔幻:一个"懂计算机但不懂编程"的人,正在指挥AI写回测引擎、处理多周期数据对齐、管理资金曲线。
更魔幻的是对比:我身边的程序员朋友,在用同样的AI工具生成"斗地主小游戏"和"待办事项App",然后截图发朋友圈:"看,AI写的!"
第一层反差:玩具 vs 严肃系统
我必须承认,那些程序员比我懂语法。他们知道React hooks的生命周期,知道Python的装饰器模式,知道为什么不能用var要用let。
但当AI给出建议时,他们往往会说:"这代码能跑通,好厉害!"
而我,因为不懂代码细节,反而被迫问另一个问题:"这对我的策略逻辑是对的,还是错的?"
这就是为什么当DeepSeek建议我"添加对齐函数消除未来函数"时,我没有像好程序员那样立即采纳这个"技术正确"的方案。我停顿了——因为我看不懂代码,但我看得懂业务逻辑。
我发现:对齐后的回测胜率从57.68%掉到56.95%,总收益率从1030%变成1013%,整个信号分布都变了。这意味着什么?意味着AI用技术手段"修正"了一个原本有效的策略,把它变成了另一个东西。
我删除了对齐函数。不是因为我不懂它,恰恰是因为我太懂我的策略需要什么——我需要回测与实时报警一致,不需要理论上的"完美对齐"。
那些会写斗地主的程序员,可能写不出这种判断。因为他们关注"代码能不能跑",而我关注"系统对不对"。
第二层认知:98%与2%的边界
很多人问我:既然代码全是AI写的,你的工作占比多少?
我的答案很残酷:AI做了2%,我做了98%。
那2%是语法转换、括号匹配、变量命名——这些我确实不会,也不屑于学(因为有AI)。
但98%是什么?
是判断MACD参数应该设12/26/9还是10/20/10(Kimi帮我算的,但我定的标准)
是识别"对齐函数"会扭曲时间序列逻辑(我看出结果失真,虽然我看不懂那几行pandas代码)
是决定删除整个功能模块并重写(我拍板,AI执行)
是建立数据版本控制,确保回测可复现(我设计的流程,AI生成脚本)
这就是计算机应用专业给我的优势:我懂系统架构,懂数据流,懂模块耦合,懂什么是"可维护性"——这些不需要写代码,但需要理解计算的本质。
当我看到DeepSeek生成的对齐函数时,我的计算机科学直觉告诉我:这个时间戳偏移破坏了策略的原子性。我不需要读懂那几行pd.Timedelta(days=7),我只需要知道:如果上周的数据被强制拖到下周,我的趋势捕捉逻辑就崩了。
而那个能写斗地主的程序员?他可能正在赞美AI生成的卡牌洗牌算法有多优雅,却没发现游戏逻辑里少了个"炸弹判定"。
第三层洞察:AI时代的"新文盲"
有人说,未来不会用AI的人就是文盲。
但我认为,未来只会生成不会把控的人,才是新文盲。
当一个程序员用200字提示词让AI生成斗地主,然后开心地去截图时,他其实在扮演一个"高级用户",而不是"系统构建者"。斗地主不需要把控——错了就重开一局,没有资金风险,没有数据一致性要求,没有策略逻辑验证。
但当我让AI写BacktestEngine时,每一个函数我都问三个问题:
这个输入在边界条件下会爆炸吗?
如果数据源更新,这个逻辑还成立吗?
AI生成的这段代码,是在解决我的问题,还是在解决它训练数据里的"标准问题"?
这就是"计算机应用"思维 vs "编程实现"思维的区别。前者看森林,后者看树木。
给AI行业的期待(不是批评,是建设)
我不认为DeepSeek或Kimi不好。相反,它们是神兵利器。但神兵需要神将。
我希望AI公司少宣传"5分钟生成斗地主",多关注我这样的用户——我们不想替代程序员,我们想成为"AI增强型决策者"。
如果AI IDE定价真按价值来算,我觉得2%是合理的。不是AI只值2%,而是在严肃系统构建中,决策权必须值98%。AI应该收费便宜点,但要求使用者必须具备"验证能力"——就像汽车应该便宜,但驾照必须难考。
结语:未完成的实验
我的量化系统还在跑,cond05还在产生信号。我依然不写代码,依然在每天验证AI生成的回测报告是否有异常。
有时我觉得,不懂代码反而是我的护城河。因为我不被语法细节迷惑,不被"代码能跑"的幻觉欺骗,我只看一个标准:这个结果与我的实时报警一致吗?不一致,就删掉重写。
那些会写斗地主的程序员,可能还在调试AI生成的出牌逻辑。而我已经在思考:如何让cond05在2026年的市场结构中保持鲁棒性?
这就是差距:有人用AI做玩具,有人用AI建系统。而我,选择做后者——哪怕我一行代码都不会写。