原标题:Cross-Dataset Experimental Study of Radar-Camera Fusion in Bird’s-Eye View
论文链接:https://arxiv.org/pdf/2309.15465.pdf
作者单位:Opel Automobile GmbH Rheinland-Pfalzische Technische Universitat Kaiserslautern-Landau German Research Center for Artificial Intelligence

论文思路:
通过利用互补的传感器信息,毫米波雷达和摄像头融合系统具有潜力为先进的驾驶员辅助系统和自动驾驶功能提供高度稳健和可靠的感知系统。基于摄像头的目标检测的最新进展为毫米波雷达和摄像头的鸟瞰特征图融合提供了新的可能性。本研究提出了一种新颖且灵活的融合网络,并在nuScenes和View-of-Delft两个数据集上评估了其性能。实验结果表明,虽然摄像头分支需要大量且多样化的训练数据,但毫米波雷达分支从高性能的毫米波雷达中受益更多。通过迁移学习,本研究提高了摄像头在较小数据集上的性能。研究结果进一步表明,毫米波雷达和摄像头融合方法明显优于仅使用摄像头或仅使用毫米波雷达的基准方法
网络设计:
最近3D目标检测的一个趋势是将图像的特征转换成一种常见的鸟瞰图(BEV)表示,它提供了一种灵活的融合架构,可以在多个camera之间进行融合,也可以使用测距传感器进行融合。在这项工作中,本文扩展了原本用于激光camera融合的BEVFusion方法来进行毫米波雷达camera融合。本文用选定的毫米波雷达数据集训练和评估了本文提出的融合方法。在几个实验中,本文讨论了每个数据集的优缺点。最后,本文应用迁移来实现进一步的改进。

图1基于BEVFusion的BEV毫米波雷达-camera融合流程图。在生成的camera图像中,本文包括投影毫米波雷达探测和 ground truth 边界框。
本文遵循BEVFusion的融合架构。图1展示了本文在BEV中进行毫米波雷达-camera融合的网络概况。请注意,融合发生时,camera和毫米波雷达特征在BEV连接。下面,本文将为每个区块提供进一步的细节。
需要重新写的内容是:A. 相机编码器和相机到BEV视图转换
camera编码器和视图变换采用了[15]的思想,它是一种灵活的框架,可以提取任意camera外部和内部参数的图像BEV特征。首先,使用tiny-Swin Transformer网络从每个图像中提取特征。接下来,本文利用[14]的 Lift 和 Splat 步骤将图像的特征转换到BEV平面。为此,密集深度预测之后是基于规则的block,其中的特征被转换成伪点云,并进行栅格化并累积到BEV网格中。
雷达柱特征编码器
此块的目的是将毫米波雷达点云编码到与图像BEV特征相同的网格上的BEV特征中。为此,本文使用了[16]的 pillar 特征编码技术,将点云光栅化为无限高的体素,即所谓的pillar。
C. BEV Encoder
与[5]相似,毫米波雷达和camera的BEV特征是通过级联融合的。融合的特征然后由联合卷积BEV编码器处理,使网络能够考虑空间错位和使用不同模态之间的协同效应。
需要重写的内容是:D. 检测头
本文使用CenterPoint检测头来预测每个类的目标中心的热图。进一步的回归头预测物体的尺寸、旋转和高度,以及nuScenes的速度和类属性。而热图使用高斯焦点损失进行训练,其余的检测头使用L1损失进行训练
实验结果:



引用:
Stäcker, L., Heidenreich, P., Rambach, J., & Stricker, D. (2023). 《鸟瞰视角下雷达-摄像头融合的跨数据集实验研究》. ArXiv. /abs/2309.15465

需要重新写作的内容是:原文链接:https://mp.weixin.qq.com/s/ayZl9tnm47y9VpfgmIG2qg
