自动驾驶汽车的新兴技术:红外立体感知

自动驾驶点云处理

分享这篇文章

在过去的五年里,出现了一系列备受关注的车辆在使用高级驾驶辅助系统(ADAS)时误解驾驶环境的案例。最近一次是在7月,Tesla的TSLA+0.9%全自动驾驶(FSD)系统内部的算法因为将远处的黄月亮当作黄灯而减速。另一个轰动但略显幽默的故事是,一周内第二辆特斯拉汽车相撞,但后一次事故发生在一辆停着的警车上(2021年3月)。还有的时候,就像Delray Beach(2019)和Williston(2016)的特斯拉汽车一样,视觉系统漏掉了一辆半挂车,导致两起单独的、不那么有趣的撞车事故,致使两名司机死亡。事实上,为了应对多起此类案件,美国国家公路和交通安全管理局(NHTSA)在3月份报告中称,正在启动一项特别的车祸调查。确实,所有这些事件都很罕见,特斯拉确实比其他此类事件受到了更多的关注(例如优步2018年在坦佩发生的致命车祸),但这些新闻报道也表明,基于视觉的系统(如摄像头)的标准保真度可能需要继续改进,以满足预期功能的安全性(SOTIF),并支持预计到2023年1730亿美元的自动驾驶市场。


在此背景下,很久以前(大约20世纪末),红外(IR)传感器偶尔被考虑用于增强型ADAS系统或自动驾驶研究车辆,因为它们有助于解决视觉系统无力应对的场景:夜间黑暗、极端天气(如雾、雪)和/或反射率低的情况。将热感应放到未来计划中,前视视觉将需要更强大的感知能力。然而,一个反复出现的设计和操作问题使这种传感器变得不那么理想:重要的标定设置。不管你是否相信,在很长一段时间里,这种系统需要一个装饰有棋盘图案的独立标定板,以及灯泡或发热丝,这样可见光摄像头和红外摄像头都可以调整其基本标定。因此,最初的设计不仅在操作上昂贵,而且无论平台设计得多么严格,偶尔都需要进行后续的重新标定。所以,许多制造商都放弃了红外摄像头的增强功能。事实上,今年早些时候,马斯克宣布,Telsa将转向“纯视觉”方案,“……相信自动驾驶最终只需要视觉系统。”


然而,事故仍在发生。Foresight Automotive负责业务开发的副总裁Doron Cohadier表示:“我们已经见过不少这样的事故。当汽车撞上了我们所说的‘未分类的障碍物’,包括动物、非普通车辆等,以及眩光、雪、雾和大雨等恶劣天气条件。”因此,该系统的低能见度成了媒体上人们并不想看到的高曝光率。


因此,公司重新审视了将红外摄像头添加到前向传感器阵列中的可能性。Cohadier解释道:“使用两个同步或‘立体’的红外摄像头可以提供环境的像素化深度图,并能够检测任何物体——既有使用深度神经网络(DNN)的分类物体,也有在恶劣天气条件下使用立体技术的非分类物体。”


“这类技术是被动的,而竞争对手的技术是主动的,会发射能量来‘击中’物体并获得反射。通常在交叉路口有一大堆主动传感器,会产生很多噪音,削弱系统读取传感器信号的能力。红外立体传感器并没有向环境中发射能量,而是在吸收。因此,传感器之间不太容易相互干扰。”


为了解决之前的操作问题,新添加的自动标定省去了昂贵且复杂的设置和维护步骤。正如Foresight的产品开发总监Izac Assia所解释的,“两只摄像头指向距离,并识别相对后估计是否发生了变化。这是动态发生的,目的是保持自动标定并创建准确的深度图。”


最终,这种自动标定的红外摄像头协同工作,将即使复杂的视觉环境转换为高分辨率、稠密的3D红外点云,并使安全系统能够准确地了解周围的情况。


也许我们都需要重新标定技术方案。


阅读《福布斯》的最新文章,了解更多关于Foresight的红外立体解决方案及其对自动驾驶的帮助。

联系方式

订阅我们的报刊