上一篇写了当老同志拿起键盘,重新玩Python,想着用AI写点个人工具的时候,今天"养虾"把token给玩爆了——就是Kimi那个Claw,塞了几十个分析任务进去,上下文窗口直接报错,前面跑的全丢了。
这事挺尴尬,但也挺启发人的。我这边正用AI写着代码呢,那边软件行业自己先崩了:Claude Cowork一发布,海外巨头股价雪崩,国内做金融软件的也跟着躺枪。市场的逻辑特别简单粗暴:AI都能写代码了,还要软件公司干嘛?
但说实话,这恐慌有点过头了。
Token限制是物理现实,不是工程问题
很多人说AI上下文窗口已经能读上百万字了,还不够用吗?
真不够。因为我今天刚亲手把它撑爆,国内最长的kimi的26万的token。
当你塞进去几十只股票的财报、分析框架、关联数据,眼看着它从流畅到卡顿再到报错,你就明白了:上下文窗口不是"还能更大吗"的问题,是"再大也装不下"的问题。
我的那点小项目都塞不下,更何况支撑日均万亿成交的金融核心系统?
金融业务的本质是多系统实时协同——交易、清算、风控、监管必须同时处理同一笔交易的不同维度,且必须在毫秒级保持一致。这意味着系统状态空间是指数级增长的。
AI的上下文窗口(Token)是线性增长的(从100万到1000万)。用线性增长去承载指数级增长的状态空间,数学上就是不可能的。
这里有个"除非":除非出现架构级突破。 比如RAG(检索增强)可以把一部分记忆"外包"给外部数据库,或者Mamba这类新架构能把复杂度从平方级降到线性。但RAG解决的是"读得多",不是"同时看得全"——它依然无法在单一时点装载多个系统的实时交互状态。RAG+多Agent可以部分模拟并发,但代价是延迟——对于要求毫秒级响应的金融系统,这种延迟是不可接受的。只要还是基于Transformer的注意力机制,Token的物理限制就还在。
Cowork处理的是序列,金融系统处理的是并发状态
Claude Cowork确实凶猛,但它处理的是序列化任务——步骤清晰、前后依赖明确的工作流:审合同、做对账、生成报告。这些任务的上下文是有限的,可以被压缩进百万级Token。
但金融核心系统处理的是并发实时状态——交易撮合、资金交收、风控扫描、监管报送在同一毫秒内发生,且互相影响。你不能拆开来看,因为拆开的瞬间状态就变了。
Token限制的本质是:AI无法在同一时间装载多个系统的实时交互状态。 它能看到交易系统的代码,也能看到风控系统的代码,但它不能在同一上下文中看到两者在毫秒级的实时互动。
两类系统的差别
软件行业其实就分两类:
第一类:序列化系统(会被替代)
标准合同审查、固定财务流程。业务是线性的,步骤123。Cowork能一眼看全整个流程,直接端到端生成。
第二类:并发协同系统(更值钱)
证券集中交易、实时清算。业务本身要求多系统同时处理同一笔交易,且毫秒级同步。上下文窗口只能看到一个系统的片段,看不到多系统实时交互的全景。
这种复杂度是业务本身决定的——你要做证券交易,就必须同时处理价格、资金、持仓、风险、监管的实时交叉验证。
二三十年后呢?
金融业务只会更复杂(数字货币、跨境、衍生品),状态空间继续指数级膨胀。而AI的上下文窗口撑死了线性增长(十倍)。
当然,除非出现全新的计算范式(比如量子计算在特定优化问题上的突破,或者非冯·诺依曼架构的专用芯片),否则这个数学差距无法弥合。
所以预言一下:做序列化软件的死光了,做并发协同核心系统的不仅活着,反而更值钱——因为只有人敢设计多系统实时协同的架构,因为只有人理解上下文窗口装不下的那部分业务逻辑。
老同志的感悟
写了二十年代码,现在用AI写Python,反而看明白了:
AI消灭的不是程序员,是"处理线性流程的程序员"。
真正值钱的,是面对一个多系统实时协同的复杂系统,能意识到"这里上下文窗口装不下,得靠架构设计兜底"的人。