3月16日开始,特斯拉向全美订购和订阅用户推送FSD Beta V12.3版高阶辅助驾驶功能,意味着,特斯拉端到端自动驾驶开始体验了。
2023年被称为“智驾元年”,因为L2+级辅助驾驶有了更深层面的突破,“重感知,轻地图”已成为新的发展方向。到了2024年,随着华为ADS 2.0实现无图NCA,以及特斯拉美国推送的端到端体验,“纯感知”是不是会成为今年智驾领域着重的发展方向。
马斯克曾在社交媒体上表示,更新的V12是为FSD端到端AI保留的,从图像输入到转向、刹车和加速输出。而端到端为什么有改变智驾的能力,就因其更简便,真实的大数据,和学习能力更强的AI大模型。
去高精地图后,智驾走向了端到端?对于用户来说,很多人不了解智驾的端到端是什么。通俗来说就是“感知决策一体化”,也就是将“感知”和“决策”融合到一个模型中,比如ChatGPT就是一种端到端模型。
当下主流的智驾系统,几乎均采用模块化模型,也就是把感知、预测、规划分为三个独立的模型,每个模型相对独立,并且处于下游的规划模型需要依赖工程师编写大量代码去制定行驶规则,这也是为什么目前的智驾不“拟人”的感觉。
另外,这种独立模块的系统,进行一整套流程时,信息传递会出现缺失,再加上系统程序过于复杂,导致维护难度较大,同时也无法在复杂路况下应用。
总结来说,模块化模型,每个模型都要进行专门的训练、优化、迭代,随着后期维护越来越困难,需要投入的精力和成本就越来越大。另外,各独立模块如果有一方出现偏差,就能导致下面的方案全部出现偏差,导致执行错误。
而端到端,用一个模块来实现所有功能,也就是“没有中间商”,减少了信息传递错误,信息的输入和输出直接。好处正好与模块化模型相反,只需要对一个模型进行训练和优化,输入信号可直接输出控车信号。
当然,端到端也并非没有缺点。端到端非常吃数据,怎么理解,两方面。
一是端到端智驾如果出了差错,研发人员是无法从中得到确切原因的,也就是说一个模块集中的功能过于丰富,看似执行变得简单,但中间省略的步骤,也能导致问题数据无法得到分析。解决办法就是通过不断地训练、增加参数量来提高模型的准确率,可以理解为,这与是否存在完美的软件,是一个道理。
二是端到端的训练较难。如果说传统的感知模型训练,是标注有用的信息,相当于小学或初中水平,而端到端就是要深度学习驾驶行为,能掌握拟人的驾驶逻辑,需要更大的思维发散,而不是固定思维。就好比,感知模型在进行固定程式的科目三考试,而端到端则是拿到驾照后上路练车的过程。
上述两个点的核心就是,端到端深度学习和规避问题的办法,需要大量数据支撑,这些数据还必须是高质量有效数据。
虽然端到端对数据的需求更苛刻,但相比感知模型,其性能上限更高。也就是说,未来想要实现更高级别的自动驾驶,端到端是更好的解决方案。