自动驾驶行业真正变天了:不是人类在教AI开车,而是AI开始反过来给工程师布置任务,这背后的变化,比很多人想象得更猛。
过去大家对自动驾驶的理解很简单,就是让机器模仿人类司机。
工程师把大量路测数据喂给系统,告诉它红灯该停、转弯要让、遇到行人先刹车,本质上就是把人的经验数字化,再复制给机器。
可问题也恰恰出在这里。
如果一套系统永远只是照着人类去学,那它再厉害,顶天也就是个“不会疲劳的老司机”。
但人类驾驶本身就有天然上限,会紧张、会分神、会判断失误,还会受视角和体能限制。
AI如果一直困在模仿逻辑里,上限其实早就被人类先天能力锁死了。
现在小马智行释放出的一个明确信号是,他们正在把这条传统路线彻底翻过来。
核心变化,就是让AI不再只是被动接受训练,而是进入“自我进化”模式。
支撑这个思路的,是他们提到的世界模型能力。
简单理解,就是先在虚拟环境里搭建一个足够逼真的数字道路世界,让系统可以在里面反复推演、反复试错、反复博弈。
这和以前最大的不同在于,AI不只是练车,它还会自己发现问题。
比如它在推演中碰到某类极端路况,发现当前判断把握不够,它不会像过去那样等工程师慢慢复盘、手动修补,而是可以直接提出数据需求:需要哪条道路、哪个时间段、什么光照条件、什么交通参与者组合的数据,人类团队再去补采。
说白了,过去是工程师给AI出题,现在越来越像AI先做题、找漏洞,再把补课清单甩给工程师。
楼天城那句“AI在给我派活”,听上去像一句玩笑,实际上已经点出了研发关系的变化。
这背后最值得关注的,不只是效率提升,而是权力结构在变。
以前人类是主导者,AI是执行工具;现在AI越来越像一个会自检、会提需求、会推动研发流程的系统,人类更多承担的是校验、约束、补充和兜底的角色。
很多人一听这种变化,会本能地焦虑,觉得人是不是要被机器替代了。
但现实可能不是“人消失了”,而是“人的岗位定义变了”。
未来真正值钱的能力,不再只是会不会操作某个AI工具,而是会不会设计规则、搭建边界、管理风险、判断方向。
机器负责狂奔,人类负责立规矩、定赛道、踩刹车,这才是更像未来的分工。
还有一个非常关键的判断,也值得细看,那就是他们对VLA路线的态度。
现在不少人都在谈视觉—语言—动作的大模型路径,意思是先看见,再转成语言理解,最后输出动作。
这套架构在很多场景下很有想象力,但放进自动驾驶里,问题也很直接:路面决策很多时候根本不给你“先组织语言再反应”的时间。
前方突然窜出电动车、旁车猛并线、行人临时折返,这类情况拼的是毫秒级反应。
如果系统底层还要先“想一句话”,再把话转成动作,那延迟带来的风险就非常现实。
所以小马智行更强调从感知到决策的直接打通,尽量压缩中间链路,不让“语言层”成为慢速环节。这种思路其实很容易理解:开车首先是一种物理控制问题,不是写作文,更不是打字聊天。
谁能更快、更稳、更可靠地把感知直接转成行动,谁就更接近真实道路环境的要求。
这也是为什么他们把目标上升到“物理AGI”的原因。
说到底,自动驾驶如果真要走到高阶,不只是学会认红绿灯、认车道线,而是得理解现实世界的物理规律、交通博弈和复杂动态,并在不确定环境里持续做出正确反应。
更残酷的是,这种技术路线变化,正在让传统“人类驾驶数据至上”的逻辑快速贬值。
自动驾驶早期,老司机的驾驶数据曾经被视为宝贝,谁手里数据多,谁就更有话语权。
但当AI能在虚拟世界中高频对抗、自我修正、生成更丰富的长尾场景时,人类数据的重要性自然被削弱。
因为人类能提供的是经验样本,而AI追求的是超越经验上限的系统能力。
这就像围棋进入AlphaGo时代之后,顶级棋手的棋谱当然仍有参考价值,但真正推动能力跃迁的,已经是机器自我博弈产生的新范式。
技术如果只是讲故事,那意义有限,关键还是能不能落地。而自动驾驶行业眼下最大的变化之一,就是商业化终于开始逼近“真拐点”。


