华为ADS 3.2有车位就能停?FSD可能做不到,下一个会是小米?

全文2435字,阅读约需7分钟,帮我划重点

划重点

01华为乾崑智驾ADS 3.2新增了8项功能,优化了3个决策细节,其中最核心的是打通智驾最后一公里的“车位到车位”。

02与特斯拉FSD V13.2相比,华为ADS 3.2在高速、城市工况能实现的功能基本都差不多,但在最难的停车场(停车楼)方面,FSD V13.2可能仍不如华为ADS 3.2。

03华为ADS 3.2车位到车位功能不依赖系统死记硬背,实现了在任意停车场、任一空位的自主泊车任务。

04除此之外,小米有望成为下一个打通自由车位到自由车位的车企,因为其已支持有人待客泊车功能,底层技术架构基本具备了融合两项功能的能力。

以上内容由腾讯混元大模型生成,仅供参考

图片

理想汽车推送车位到车位功能之后,华为也更新了这项技术,甚至不用学习记忆一遍,在任何停车场,任一空位都能自主完成整套泊车任务。具体来说,这次华为乾崑智驾ADS 3.2新增了8项功能,优化了3个决策细节,其中,升级的NCA施工场景避障换道能力,正是之前特斯拉FSD V13.2的重大更新内容,而最核心的,还是打通智驾最后一公里的“车位到车位”,那么问题来了,新版本的智驾效果如何?下一个跟进这项功能的会是谁呢?

图片

不靠系统死记硬背,没去过的停车场也能用?

体验过华为乾崑ADS 3.2Beat的全流程智能驾驶,或者研究过它在不同环境场景下的实测表现,应该大致都会有一个感受,那就是基本不用再等特斯拉FSD落地中国了,因为在高速、城市工况能实现的功能基本都差不多,最大的区别可能就是系统在控速和博弈维度上的体验细节差异,当然了,两种截然不同的技术方案,在难度最高的停车场(停车楼),FSD V13.2还很有可能没ADS 3.2好用。先来看新版本在自身层面的优化,相比ADS 3.0,V3.2在使用端最明显的变化,是开启智驾的条件更极限了,从早期只能在中间道路启用,到驻车挂D挡开启,再到现在的P挡激活,这意味着所涉及的工况更为全面了,在底层架构端,ADS 3.2依旧是GOD大网多模块逻辑,从官方最新的实测来看,整个模型算法能看作是打磨到了较高的成熟度,从往返2次超过50多公里的城市领航效果来看,不论是过闸机、无保护左转、避障绕行、路边临停、U型掉头、人车混行的十字路口等,整个过程中都没有出现降级或接管。

图片

按照技术层面来讲,系统接管与否,取决于端到端对当下环境的理解能力,也取决于是否符合人类驾驶员的控车逻辑,所以这次的华为车位到车位首秀,基本可以确定两件事,其一,场景理解能力有明显优化,甚至可以说是有迭代的效果,举个例子,在城市拥堵场景下,系统会规划出至少2种规避偏航的决策,常规型方案是提前感知、提前换道,重点来看激进型方案,系统能从缓行跟车的队伍中找准时机加塞换道,这意味着,整套系统已经连贯分析了后车跟车距离、加速度以及前车运动轨迹,数据精准度和传输速度明显是处在实时能力的。其二,以目前感知硬件配置水平来看,已经具备了类似L3的部分效果,这需要把车位到车位和VPD这两个功能放在一起来聊,所谓的L3,自动驾驶等级定义给出的解释是驾驶过程不用接管方向盘,允许人类驾驶员视线离开路面,而华为这次新增的这两块内容,明显就是冲着这个方向来的。

图片

首先,不论是纯视觉还是多传感器融合方案,端到端本质都是需要投喂大量的数据内容训练,从而得到见过的场景会处理,没见过的场景会学着处理,所以理想化的最终形态,是大模型见过99%的场景,剩下1%的黑盒子情况,就是考验模型的自我生成逻辑能力,所以,理想汽车在用上E2E+VLM双系统之后,真正意义上量产了车位到车位功能,不过,满足这项功能得有2个前提,一个是需要事先跑一遍,E2E会通过记录视频上传世界模型的方式,云端重构环境数据分析这次的停车逻辑,另一个则是需要有固定车位,模型负责应对泊车途中的各类场景,最后驶到设定好的车位就算完成,而华为这次完全砍掉了以固定车位和固定停车场为基础的处理方式,通过自主漫游、云端学习来实现自由车位的泊入和泊出,不靠系统死记硬背,没去过的停车场也能正常用,所以本质上来讲,这套方案不是把智驾领航和记忆泊车拼起来的功能。

图片

其次,作为解决智驾最后一公里的泊车代驾功能,其实绝大多数车企早些年就有一些技术雏形了,甚至连威马也曾布局过类似的方案(跨楼层免学习无人泊车PAVP),但迟迟不能规模商用的原因,基本都卡在了由探测精度问题导致的算法不成熟,比起道路上的不规则障碍物,停车场或停车楼的技术难点无非是探测空位和礼让会车,这实际上更考验系统在狭窄环境下人车混行的博弈能力,以华为的VPD功能来看,之前的探测精准性由192线激光雷达和毫米波雷达来获取,PDP决策网络会基于后续逐渐开放的停车场数量和难点上继续优化,另外话说回来,驾驶员下车后车辆自己找车位最后泊入,不就是视线离开路面的一种表现吗?至于大规模铺开后的效果,还需要结合接下来的实测表现来讨论。

图片

打通固定车位限制,下一个跟进会是小米?

那么,特斯拉FSD V13.2会实现ADS 3.2的自由车位到自由车位吗?其实从感知硬件配置来看,前者实现的可能性相对会更低一些,毕竟,FSD的本质是靠occ占用网络技术,把世界分成无数个单元格,摄像头获取到障碍物后交给模型拆成数据对齐坐标,所以,问题就在探测精度上面,前面提到,代客泊车的难点就在极限场景下的会车处理逻辑上,以纯视觉技术架构来看,仅靠迭代算法训练,明显还是融合记忆泊车的技术方案,这也就解释了小鹏汽车仅支持固定车位的原因,换句话说,激光雷达在这项功能里发挥的角色,正是能实时扫图构建3D数据模型,BEV架构又能补齐环境精度,所以大致能推测到,即便是FSD以最新版本来到中国,最后一公里的智驾效果很有可能不如预期。

图片

新的问题是,在华为ADS 3.2之后,下一个打通自由车位到自由车位会是谁呢?以技术层面来看,车位到车位准确来讲是场景能力,而端到端是技术能力,二者之间的核心联系,也是最大的技术难点,就是把这两项能力连贯结合起来,也就是说,需要在模型中融入整套场景的算法,就目前来看,国内有四家推送了这项功能,即理想、小米、小鹏和华为ADS,但除了华为,其他三家都是以静默记忆路线展开的技术形式,痛点就在系统需要进行两次记忆(进出车位),而且仅限固定车位,要打通车位和停车场固定限制,首先得满足的基本条件就是感知硬件的性能要跟得上,难点是调整模型的决策机制,具体来说,需要从记忆转为建图。

图片

提到建图,激光雷达显然是有自身技术优势兜底的,而摆脱记忆规划,就需要类似华为PDP决策网络的第二系统来分析,而视觉语言模型VLM显然具备类似的逻辑,所以,基于Transformer+BEV+VLM的小米,大概率是下一个打通自由车位到自由车位的,毕竟,目前其已支持有人待客泊车功能,底层技术架构基本已经具备了融合两项功能的能力,所以接下来可能只剩一个时间周期去打磨细节。

图片

另外,参考理想汽车的6.5.1版本效果来看,其下一步的技术迭代方向会是VLA视觉语言动作模型,演变的方向明显是类似一体式的大网逻辑,所以除了小米,理想的车位到车位,执行端呈现的效果很有可能还会比华为现有的GOD网更拟人一些,但是不论如何,单是拿现有技术和效果来看,特斯拉FSD还没入华,可能就已经和国产技术有代差了。

个人观点,仅供参考