从“打代码”到“学开车”:端到端大模型如何开启智驾新元年?
如果你最近在上海浦东的街头观察,你会发现路上的智驾汽车变得“聪明”了:它们不再像机器人那样僵硬地刹车,变道时更像老司机一样果断。这种变化的背后,是智驾技术的一场本质革命——从“规则驱动”转向“模型驱动”。早期的智驾(L2级及以前)本质上是程序员给车写的一本厚厚的“说明书”。如果左侧有实线,就不能变道。这种模式叫模块化设计。感知、预测、决策被切分成不同的环节。缺点显而易见:世界是复杂的,程序员不可能穷尽所有的可能性(Corner Cases)。当遇到“没见过”的场景,系统就会“宕机”或误判。2026年的主流智驾(如华为ADS 3.0、特斯拉FSD V14)已经进化到了端到端大模型。 简单来说,车不再听从特定的指令,而是通过“学习”数千万小时的人类驾驶视频,自己悟出了怎么开车。传感器(摄像头、激光雷达)输入信号,神经网络直接输出驾驶指令。拟人化:它不再是生硬地执行代码,而是具备了“直觉”。世界模型(World Model): 最先进的系统能“预测未来”。它能理解如果你现在加速,前面的外卖小哥可能会往哪躲,从而提前规划。4. 视觉派 vs. 融合派:争论依然在,但边界在模糊特斯拉为首的“纯视觉派”: 认为人靠眼睛能开车,AI也可以。通过超强的算力模拟人类视觉,成本低,上限高。中国车企主导的“融合感知派”: 坚持带上激光雷达。在2026年的技术语境下,激光雷达更像是一层“安全底膜”,在黑夜、大雨等极端环境下提供物理维度的保障。随着上海“模速智行”计划的实施,L3级的量产和L4级的落地已经近在咫尺。技术已经不再是绝对的瓶颈,数据量和算力储备成为了车企新的“护城河”。