撰文|杨铮
设想一下这个场景:
当你在平静的夜里独自驾车,前方出现了一个不明障碍物,在你做出判断之前,一场激烈高效的讨论会已经在驾驶辅助系统进行中:
4D成像雷达认为,有85%的可能是一只小狗
增强版远距点云角雷达表示,因为观测角度受限,有八成把握判断是一只狗
激光雷达有90%把握认为目标是一只柯基犬
高清摄像头视线似乎有些模糊,勉强看出目标是“两个雪糕筒”
——综上,CPU得出结论,目标是一只柯基犬。
讨论1:各传感器报告推论,CPU得出结论
但是为了排除可能的意外,大家又换了种方式开始讨论。这次,CPU从各个传感器直接获得对目标的描述(而非判断),并依靠自己的算力和经验进行判断,结论仍是一只柯基犬。
讨论2:CPU从各传感器收集数据,“算”出结论
二者交叉印证,基本可以得出可靠的判断。
在毫秒间,一群传感器和CPU开了一场会,做了两轮讨论,得出并执行了一套指令,而且,没有叫上你。
如果是一辆配备了RISING PILOT智驾系统的飞凡R7,上述场景随时可能真实的发生。
上面的“会议”实际上就是驾驶辅助系统对信息的处理算法,第一场讨论被称为“后融合”、第二场被称为“前融合”,二者各有千秋,互有短长,但基本代表了自动驾驶算法的主流。
飞凡R7的RISING PILOT系统采用了两种方案的全融合
飞凡汽车日前宣布,RISING PILOT全融合高阶智驾系统正式落地,并将在10月随飞凡R7一同交付给用户。在这套系统中,飞凡汽车创造性的采用了全融合算法,将前融合和后融合两个过程同步进行。
凭借系统的高带宽与强算力,RISING PILOT能够一方面对视觉、毫米波、激光雷达等独立的感知结果进行后融合,同时综合激光/毫米波+图像的前融合结果进行全要素全观测周期融合,从而在毫秒级的反应时间内,完成感知、融合、预测、决策、执行等一整套应急反应。
当然,足够强的硬件配置是得出上述反应的基础。飞凡R7拥有33个传感器,包括Premium4D成像雷达,800万像素高清摄像头以及LUMINAR 1550nm高规激光雷达这三大王牌传感器,同时,核心算力来自两枚英伟达Orin X芯片,单片算力达到254TOPS,为上代产品8倍,再加上千兆以太网主干通信带宽,奠定了该系统的硬核底层实力。
底层硬件是基础
随着激光雷达领衔、各类车用传感器不断普及,如今的智能汽车已经到了比拼传感器数量的时候,就想燃油车比发动机马力、电动车比续航里程一样。但实际上,堆砌传感器只是表面功夫,如何对传感器获得的海量信息及时准确的进行处理、判断,并最终得出用于自动驾驶的科学决策,才是真正的汽车智能化成果。