0. 简介

本文介绍了BEVTrack:鸟瞰图中点云跟踪的简单基线。由于点云的外观变化、外部干扰和高度稀疏性,点云的3D单目标跟踪(SOT)仍然是一个具有挑战性的问题。值得注意的是,在自动驾驶场景中,目标物体通常在连续帧间保持空间邻接,多数情况下是水平运动。这种空间连续性为目标定位提供了有价值的先验知识。然而,现有的跟踪器通常使用逐点表示,难以有效利用这些知识,这是因为这种表示的格式不规则。因此,它们需要精心设计并且解决多个子任务以建立空间对应关系。本文《BEVTrack: A Simple Baseline for 3D Single Object Tracking in Bird’s-Eye View》中的BEVTrack是一种简单而强大的三维单目标跟踪基线框架。在将连续点云转换为常见的鸟瞰图表示后,BEVTrack固有地对空间近似进行编码,并且通过简单的逐元素操作和卷积层来熟练捕获运动线索进行跟踪。此外,为了更好地处理具有不同大小和运动模式的目标,BEVTrack直接学习潜在的运动分布,而不像先前的工作那样做出固定的拉普拉斯或者高斯假设。BEVTrack在KITTI和NuScenes数据集上实现了最先进的性能,同时维持了122FPS的高推理速度。目前这个项目已经在Github上开源了。

1. 主要贡献

本文的贡献总结如下:

1)本文提出了BEVTrack,这是一种简单而强大的三维单目标跟踪的基线框架。这种开创性的方法通过BEV表示有效地利用了空间信息,从而简化了跟踪流程设计;

2)本文提出了一种新型的分布感知回归策略,其直接学习具有不同大小和各种运动模式的目标的潜在运动分布。该策略为跟踪提供准确的指导,从而提供了性能,同时避免了额外的计算开销;

3)BEVTrack在保持高推理速度的同时,在两个主流的基准上实现了最先进的性能

2. 概述

一般来说,算法会在初始帧上给定特定目标的3D边界框(BBox),而3D单目标跟踪(SOT)旨在通过预测其在后续帧中的3D边界框来定位目标。一个3D边界框B_t ∈ \mathbb{R}^7由其中心(即x、y、z坐标)、方向(即绕上轴的偏航角θ)和尺寸(即宽度、长度和高度)参数化。假设连续两帧中的点云分别表示为P_{t−1} ∈ \mathbb{R}^{N_{t−1}×3}P_t ∈ \mathbb{R}^{N_t×3},其中N_{t−1}N_t是点云中的点数。在时间戳t,我们将P_{t−1}中的所有点和P_t中的那些在搜索区域内的点作为输入,而不进行采样或裁剪。由于跟踪目标的尺寸和方向变化很小,我们假设目标的尺寸和方向保持不变。因此,我们只回归帧间目标平移(即∆x、∆y、∆z)以简化跟踪任务。通过将平移应用于3D边界框B_{t−1},我们可以计算出3D边界框B_t以定位当前帧中的目标。跟踪过程可以表示为:


其中F是跟踪器学习到的映射函数。
根据公式(1),我们提出了BEVTrack,这是一个简单但强大的3D单目标跟踪基准框架。BEVTrack的整体架构如图2所示。它首先利用共享的VoxelNext [29]提取3D特征,然后将其压缩以获得BEV表示。随后,BEVTrack通过串联和多个卷积层融合BEV特征,并通过MLP回归目标的平移。为了实现准确的回归,我们采用了一种新颖的分布感知回归策略来优化BEVTrack的训练过程。

图2. BEVTrack的示意图。它使用VoxelNet从连续帧中提取特征,进一步将其转换为BEV表示。然后,通过串联和几个卷积层,它融合BEV特征并捕捉运动线索。最后,通过多层感知机(MLP)回归运动偏移量。在训练过程中,我们提出了一种分布感知回归策略来优化BEVTrack。

3. 特征提取

首先,我们需要学习用于描述原始点云的判别特征。与之前的工作[20,24,26]采用点云为基础的骨干网络[18,19,23]不同,我们提出使用VoxelNet[29]进行特征提取,该方法可以捕捉物体的三维形状信息。因此,在稀疏点云中可以从背景中识别出潜在目标。
给定两个连续帧的原始点云,通过动态体素化过程[28],我们将无序点云转换为均匀间隔的网格。之后,由稀疏卷积[21]堆叠的共享VoxelNet骨干网络处理非空体素的特征,并生成稀疏的三维特征,其中每个体素的初始特征简单地计算为体素内点坐标(即x、y、z)的均值[29]。最后,我们沿着高度维度压缩稀疏的三维特征,得到BEV特征B_{t−1} ∈ \mathbb{R}^{H×W×C}B_t ∈ \mathbb{R}^{H×W×C},其中HW表示二维网格的尺寸,C是特征通道的数量。

4. 基于BEV的运动建模

基于BEV特征B_{t−1}B_t,基于BEV的运动建模(BMM)旨在编码空间接近性并捕捉BEV中的运动线索。由于B_{t−1}B_t中的物体在空间上相邻,我们可以使用诸如连接等逐元素操作将它们轻松融合在一起,以保持它们的空间接近性。随后,将所得到的连接特征输入到多个卷积块中,每个卷积块包含三个步长为1或2的卷积层。该模块减小了融合的BEV特征的空间维度,使其能够有效地捕捉各种运动模式,包括小幅和大幅运动。上述过程可以表示为:

其中Conv表示BMM中的卷积块,[;]表示连接运算符。F ∈ \mathbb{R}^H^′×W^′×C^′
其中H^′W^′C^′分别表示空间维度和特征通道数。
最后,我们使用最大池化层和多层感知器(MLP)来预测目标平移偏移,即,

其中C ∈ \mathbb{R}^6表示目标平移偏移\bar{u} ∈ \mathbb{R}^3的期望值和标准差σ ∈ \mathbb{R}^3,这将在第5节中详细介绍。通过将平移应用于目标的最后状态,我们可以在当前帧中定位目标。

5. 分布感知回归

在先前的工作中,通常在训练过程中使用传统的L1或L2损失来进行目标位置回归,这实际上对目标位置的分布做出了固定的拉普拉斯或高斯假设。与之相反,我们提出直接学习底层运动分布,并引入一种新颖的分布感知回归策略。通过这种方式,可以为跟踪提供更准确的指导,使BEVTrack能够更好地处理具有不同大小和移动模式的物体。
在[11]的基础上,我们使用重新参数化来建模目标平移偏移u∼P(u)的分布。具体而言,P(u)可以通过对来自零均值分布z∼P_Z(z)进行缩放和平移得到,其中u=\bar{u}+σ·z,其中\bar{u}表示目标平移偏移的期望,σ表示分布的尺度。P_Z(z)可以通过归一化流模型(例如,real NVP [2])进行建模。给定这个变换函数,可以计算出P(u)的密度函数:

与之前仅回归确定性目标翻译偏移量u的方法相比,我们的方法专注于回归两个不同的参数:目标翻译偏移量u的期望值\bar{u}和其标准差σ
在这项工作中,我们采用了[11]中的残差对数似然估计(RLE)来估计上述参数。RLE将分布P_Z(z)分解为一个先验分布Q_Z(z)(例如,拉普拉斯分布或高斯分布)和一个学习到的分布G_Z(z | θ)。为了最大化方程(4)中的似然函数,我们可以最小化以下损失函数:

在这里,\hat{z} = (\hat{u}−\bar{u})/σ\hat{u}是真实的平移偏移量。

6. 参考链接

https://arxiv.org/pdf/2309.02185.pdf