L4公司,凭啥做得好L2/3?( 二 )


尤其是在量产自动驾驶系统从高速公路单车道L2 , 进入到城市点对点的阶段后 , 对感知、预测和决策规划能力的要求已经高了不只一个数量级 。
而在这三大核心方面 , L4公司显然都更具优势 。
二、L4公司更熟悉激光雷达融合算法和数据优势很明显
在感知层面 , L4公司在Lidar(激光雷达)数据以及多传感器融合方面拥有更加深厚的积累 。
在做L2时 , 早期玩家大多以摄像头+毫米波雷达的方案 。 摄像头收集到的仅是2D数据 , 需要通过基于规则的图像算法分析图像中的每个像素 , 将进行图像分割、物体分类等一系列步骤得到环境信息 。 进入L2+时代后 , 头部玩家逐步引入深度学习算法 , 完成图像分割、转换、物体分类、目标跟踪等一系列步骤 , 并将其还原成真实的3D场景 。
那么这种方案存在的缺点也非常明显——即存在漏检、识别率低、受环境光亮影响大等情况 。 而任何一个漏检或者速度的错误估计 , 都有可能造成一次事故 。
比如特斯拉多次出现将侧翻倒地的白色卡车当成天空的识别错误、蔚来ES8撞击施工作业车、小鹏P7未识别出侧翻轿车 , 未减速撞向60km/h正常行驶的空载挂车等 。
这些事故的出现均与摄像头+毫米波雷达的方案感知缺陷相关 。
L4公司,凭啥做得好L2/3?
文章图片
▲文远知行无人驾驶小巴
不管是使用基于规则的视觉算法还是使用深度学习技术 , 视觉在感知外界物体时永远做不到100%准确 , 甚至经常会出错 。 而毫米波雷达又存在难以识别静止物体以及空间分辨率不足等缺点 。
那么纯视觉方案是不是就一定不行?文远知行副总裁李璇解释 , 假设将纯视觉方案应用于L4场景 , 则要求算法达到人脑的复杂度——凭借视觉图像来判断距离、速度、位置、加速度等信息 , 因此要让纯视觉算法达到这样的深度和精度 , 其技术道路比多传感器方案更为漫长 。
也就是说 , 基于现阶段的实际条件 , 多传感器融合方案是更为切实可行的一条路 。
当前市场上的L2+功能绝大部分都还只局限在高速场景 , 纯视觉加毫米波雷达的解决方案承载起来没有问题 。 然而在各家都计划进军的城市点到点自动驾驶(UrbanEnd-to-End)功能场景之后 , 需要解决的问题要远复杂于高速场景 。
因此从这个角度来看 , 激光雷达和多传感器融合算法的引入是目前较优的解决方案 。 在新能源车厂商采用大算力和高线激光雷达预埋上量产车的趋势下 , 随着激光雷达大量量产和快速降价 , 多传感器融合方案已逐渐是主流 。
传统的L2玩家采用简单的传感器 , 对数据融合的要求低 , 或者不进行传感器数据融合 。 虽然目前部分主机厂已经开始采用激光雷达 , 但其多传感器融合的算法能力依然是空白 , 其中较优者也只具备决策层的后融合的能力 。
总结来说 , 这部分玩家的后融合方案基本上是由每个传感器采用独立的感知算法、独立处理生成的目标数据 。
其局限性主要表现为在极端恶劣气候与复杂遮挡等不确定性场景下分别进行单模信息提取后再进行融合决策 , 这就会导致每个通道信息会有不同层面丢失 , 很难能够进行多模有效互补与特征提取共享 。 简单来说 , 就是每个传感器的单独识别都会有信息丢失 , 那么在将各传感器的信息融合起来时就会产生一定程度的识别误差 。
那么L4玩家凭借深耕L4方案所积累的多传感器前融合+后融合经验 , 并通过激光雷达收集的多维点云数据 , 可以更加高效、精确地识别物体的大小、形状、位置、速度、加速度等信息 。 无论在大算力平台还是非大算力平台 , L4公司积累下的know-how和数据都可以发挥作用 。