众力资讯网

物理AI赋能出行,全场景智驾时代真的来了!

飞象原创(高靖宇/文)2025年的智能驾驶赛道,早已告别“谁先实现高速noa”“谁的传感器更多”的初级竞争阶段——当头部企业陆续攻克城市道路基本场景后,全行业正集体陷入一场“进阶性焦灼”:智驾系统能“按部就班开车”,却离“像人类一样灵活应对突发状况”仍有差距。

就在这一行业寻求突破的关键节点,小鹏2025科技日带来第二代vla智驾系统,直接砍掉“语言转译”环节,实现“视觉信号到动作指令”的端到端生成,不仅重构了自身的竞争力,更隐隐勾勒出智驾行业从“机械执行”迈向“类人决策”的新方向。它像一面棱镜,折射出全球智驾玩家未来竞争的核心逻辑:谁能先让系统真正“理解物理世界”,谁就能掌握下一阶段的话语权。

智驾破局:从“模块拼接”到“一体智能”

传统智驾的v-l-a架构(视觉识别-语言转译-动作指令),本质是将驾驶决策拆分成多个独立环节,每个环节的优化都可能与其他环节形成“断层”——比如视觉识别出“路口加塞车辆”,语言转译时若出现语义偏差,动作指令就可能延迟或失误。小鹏第二代vla直接砍掉“语言转译”环节,实现“视觉到动作”的端到端生成,相当于让智驾系统拥有了“直接思考”的能力,反应效率提升的同时,也避免了环节拆分带来的误差累积。

这一突破绝非偶然。早在2023年,特斯拉就已在fsd中尝试端到端技术,华为ads3.0也提出“减少中间决策链路”的思路。为何头部企业纷纷向端到端靠拢?核心在于“分步式架构”已触及效率天花板——当行业普遍能实现高速noa、城市noa后,继续优化单一环节的边际效益越来越低,而端到端架构是突破这一局限的关键路径。它标志着智驾行业从“堆功能”的初级阶段,迈入“提效率”的成熟阶段,是技术发展的必然选择。

第二代vla能实现“智能涌现”,背后是小鹏近十年积累的“大算力+大数据”底座:3万卡云端算力集群常年保持90%以上运行效率,720亿参数的基座模型每五天完成一次全链路迭代,近1亿条真实驾驶视频组成的数据集,覆盖的极限场景相当于人类司机连续驾驶6.5万年。这些数字看似夸张,却恰恰是智驾系统“理解物理世界”的前提——没有足够的算力支撑模型迭代,没有海量的真实数据训练场景应对能力,端到端架构只能是“空中楼阁”。

如今,“算力+数据”已成为全球智驾玩家的共识。华为打造了昇腾ai算力集群,为ads提供支撑;特斯拉超算d1芯片的算力规模持续扩容;百度apollo也在加大对真实路测数据的积累与自动化标注技术的研发。行业竞争早已不是“算法优化”的单点对抗,而是“算力-数据-模型”全链路的综合较量——谁能构建更高效的算力循环、更丰富的数据集,谁就能在智能进化中占据先机。

竞争焦点转移:从“功能迭代”到“智能涌现”的跃迁

尽管第二代vla代表了端到端架构的进阶,但行业并未形成“一刀切”的技术路线。目前,仍有部分企业选择坚守分步式架构的优化——比如理想汽车通过提升视觉感知精度、优化地图匹配算法,来增强智驾的稳定性;蔚来则聚焦于多传感器融合(激光雷达+视觉+毫米波雷达),试图通过“冗余感知”降低决策风险。

路线分化背后,是企业对“智驾安全性”的不同理解,但“去中间化”的共识已逐渐形成。无论是端到端架构直接砍掉转译环节,还是分步式架构优化环节衔接效率,核心目标都是减少决策链路、降低人工干预需求。正如行业分析师所言:“未来3-5年,智驾行业不会有唯一的‘正确路线’,但‘更高效、更直接的决策逻辑’一定会成为所有路线的最终指向。”

在第二代vla的测试中,一个细节尤为值得关注:系统自主学会了识别交警手势、预判红绿灯通行——这些场景并未经过专门训练。这一“智能涌现”能力,标志着智驾系统从“被动执行预设指令”,向“主动理解场景规律”转变。此前,智驾的竞争焦点是“谁先实现高速noa”“谁的城市noa覆盖范围更广”,但未来,竞争将转向“谁的系统能自主适应更多未知场景”。

比如,当遇到“施工路段临时变道”“行人突然横穿马路”等未被训练过的场景时,传统智驾系统可能因“无法识别”而请求人类接管,而具备智能涌现能力的系统,能通过对物理世界规律的理解,自主做出决策。目前,华为、特斯拉等企业也在研发类似能力——华为ads通过“场景迁移学习”,让系统在陌生场景中快速适配;特斯拉fsd则通过“多场景数据融合”,提升系统的泛化能力。可以说,智能涌现能力将成为未来智驾产品的核心差异化指标。