基于Transformer的高效单阶段短时RGB-T单目标跟踪方法

2024-04-23 发布 · 浏览64次 · 点赞0次 · 收藏0次

引言

如图 1所示,现有的三阶段 RGB-T 单目标跟踪网络通常采用两个独立的特征提取分支,分别负责提取两个模态的特征。然而,相互独立的特征提取分支会导致两个模态在特征提取阶段缺乏有效的信息交互。因此,一旦网络完成离线训练,其仅能从每个模态图像中提取固定的特征,无法根据实际的模态状态动态调整,以提取更具针对性的动态特征。这一局限性制约了网络对多样的目标双模态外观,以及模态外观间动态对应关系的适应能力。如图 2所示,这种特征提取方式并不适合 RGB-T 单目标跟踪的实际应用场景,特别是在复杂环境下,因为被跟踪目标的任意性会导致的目标双模态外观非常多样,并且两个模态外观之间的对应关系也会随着跟踪环境的变化而变化。例如,由于遮挡、光照变化或热交叉等因素,经常会出现某个模态外观的临时变化或缺失,从而导致两种模态的外观所覆盖的区域或轮廓并不总是一致的。三阶段融合跟踪无法很好地对三个功能部分进行协同设计,复杂的特征融合模块往往导致其有明显的速度瓶颈。

此外,现有基于Transformer的RGB-T单目标跟踪网络都是采用直接相加或级联的方式,将两个模态搜索区域的融合特征组合在一起,输入预测头,用于输出最终的预测结果。然而,当前 RGB-T 单目标跟踪数据集提供的视频图像并不是完全对齐的,而且,并不是每个模态搜索区域都可以提供有效信息,例如黑夜和热交叉跟踪场景下,RGB 模态搜索区域和红外搜索区域将无法提供有效的目标外观信息,存在大量的背景噪音。因此,直接通过按元素相加或级联两个搜索区域融合特征的单预测头结构,既没有考虑图像未对齐对跟踪性能的影响,也没有考虑如何处理带有大量背景噪音信息的搜索区域融合特征的问题。

图 1
图 2

为了解决当前三阶段融合跟踪范式所面临的问题,本章提出了一个基于Transformer 的高效单阶段 RGB-T 单目标跟踪网络 USTrack(Unified Single-Stage Transformer Network for Efficient RGB-T Tracking)。其核心是通过联合特征提取 &融合 & 关联建模方法,将三阶段融合跟踪范式的三个功能部分直接统一到一个ViT主干网中同时执行,从而实现在模态的交互下直接提取目标模板和搜索区域的融合特征,并同时构建两个融合特征之间的关联建模操作。由于三个功能部分都是通过一次自注意力机制的执行同时完成的,因此,借助于自注意力机制的高可并行性,USTrack 也创造了当前 RGB-T 单目标跟踪的最快速度 84.2FPS。为了充分利用现有数据集提供的两个模态图像非对齐的精确真值标注,来适应RGB图像和热图像中目标的微小位置偏差,以及减轻无效模态产生的大量噪音信息对最终预测结果的影响,USTrack 还设计了一个基于模态可靠性的特征选择机制,该机制通过直接丢弃无效模态产生的融合特征来减少噪声信息对最终预测结果的影响。

本文的贡献如下:

1)针对当前三阶段融合跟踪网络在模态特征提取阶段缺乏模态交互的问题,本章提出联合特征提取 & 融合 & 关联建模方法。该方法可以在模态的交互下直接提取目标模板和搜索区域的融合特征,并同时执行两个融合特征之间的关联建模操作,首次为短时 RGB-T 单目标跟踪网络的设计提供了一种高效且简洁的单阶段融合跟踪范式。

(2)首次提出基于模态可靠性的特征选择机制,该机制可以根据实际跟踪环境来评估不同模态图像的可靠性,并根据可靠性来丢弃无效模态生成的融合特征,减少噪音信息对最终预测结果的影响,从而进一步提高跟踪性能。

(3)在三个主流 RGB-T 单目标跟踪基准数据集上的大量实验表明,本章的方法在实现了新的 SoTA 性能的同时,也创造了高达 84.2FPS 的最快跟踪速度。特别是在 VTUAV 短时跟踪器数据集和长时跟踪数据集上,USTrack 在 MPR/MSR 指标上比现有性能最好的方法高 11.1%/11.7% 和 11.3%/9.7%。

方法

如图 3所示,USTrack 的总体架构由三部分组成:双嵌入层、ViT 主干网和基于模态可靠性的特征选择机制。双嵌入层由两个独立的嵌入层组成。这是考虑到注意力机制是基于相似度去获取全局信息的,而不同模态数据的内在异质性,可能会导致两个模态对同一模式有不同的特征表示形式,如果直接通过注意力对模态信息进行融合,这种异质性可能会限制网络对模态共享信息的建模能力,从而影响后续的特征融合过程。因此,USTrack使用两个可学习的嵌入层将不同模态对应的输入映射到一个有利于融合的潜在空间,在一定程度上对两个模态进行模式对齐,降低模态内在异质性对特征融合的影响。然后,将双嵌入层的所有输出级联为一个整体作为 ViT 主干网的输入,通过其中的自注意力层,来同时执行输入图像的特征提取,特征融合以及目标模板融合特征与搜索区域融合特征之间的关联建模操作,从而实现联合特征提取 & 融合 & 关联建模,统一 RGB-T 跟踪的三个功能阶段,为 RGB-T 跟踪提供一个高效的单阶段跟踪范式。

基于模态可靠性的特征选择机制包括两个预测头和两个可靠性评估模块。它允许两个预测头输出不同的结果,并根据模态可靠性的得分,帮助网络选择更适合当前跟踪场景的模态所对应的搜索区域融合特征用于最终的预测,从而减少无效模态产生的噪声信息对最终预测结果的影响。

图 3

实验结果

USTrack选择GTOT,RGBT234以及VTUAV数据集作为测试基准,测试结果如图 4所示。我们还以VTUAV为基准,对USTrack在不同挑战场景属性下的性能进行分析。如图 5所示,本文筛选了性能提升最为明显的6个挑战属性。分别为分别为:形变(DEF)、尺度变化(SV)、完全遮挡(FO)、部分遮挡(PO)、热交叉(TC)以及极端照明(EI)。具体来说,形变(DEF)和尺度变化(SV)挑战属性可以有效地体现了目标多样的双模态外观的差异。完全遮挡(FO)、部分遮挡(PO)、热交叉(TC)和极端照明(EI)挑战属性可以导致相应模态的外观发生变化或消失,有效地展示了目标在跟踪过程中两种外观之间的动态对应关系。USTrack 在具有这些挑战属性的跟踪场景下上取得了最显著的性能提升,可以较好的说明联合特征提取 & 融合 & 关联建模方法可以有效缓解三阶段融合跟踪范式中模态特征在提取阶段模态交互不足的问题,能够更好地适应目标多样的双模态外观和模态之间的动态关系。

图 4
图 5

如图 6和所示,为了验证基于模态可靠性的特征选择机制的有效性,我们在 RGBT234 基准数据集上,展开了带有特征选择机制的双预测头结构与几种常见预测头结构的对比实验,并给出了模态可靠性与实际跟踪场景良好对应关系的可视化的结果。

图 6
图 7

总结

本章提出了一个基于 Transformer 的高效单阶段短时 RGB-T 单目标跟踪网USTrack。USTrack 的核心是提出联合特征提取 & 融合 & 关联建模方法,以解决传统三阶段融合跟踪网络在特征提取阶段缺乏模态交互的问题。从而增强跟踪网络了对多样的目标双模态外观和模态外观之间动态对应关系的适应能力。在此基础上,进一步提出了基于模态可靠性的特征选择机制。该机制通过直接摒弃无效模态产生的融合特征,来减少了噪声信息对最终预测结果的影响,从而获得更好的跟踪性能。USTrack 在三个主流数据集上实现了 SoTA 性能,并以 84.2 FPS 的速度创造了最快 RGB-T 跟踪推理速度的新记录。值得注意的是,在目前规模最大的 RGB-T 单目标跟踪基准数据集 VTUAV 上,该方法比现有 SoTA 方法在评估指标 MPR/MSR 上分别增加了 11.1%/11.7% 和 11.3%/9.7%,取得了较大的性能突破,为该基准数据集增添了一个新的功能强大的基线方法。

作者信息

1. 夏坚强

军事科学院国防科技创新研究院硕士研究生。研究兴趣包括视觉图像处理、目标检测、单目标跟踪等。第一作者发表CCF A类会议一篇,获2022年“华为杯”第四届中国研究生人工智能创新大赛华为专项一等奖。

2. 赵健

赵健,中国电信人工智能研究院多媒体认知学习实验室(EVOL Lab)负责人、青年科学家,西北工业大学光电与智能研究院研究员,博士毕业于新加坡国立大学,研究兴趣包括多媒体分析、临地安防、具身智能。

围绕无约束视觉感知理解共发表CCF-A类论文32篇,以第一/通讯作者在T-PAMI、CVPR等国际权威期刊和会议上发表论文31篇,含一作T-PAMI×2(IF: 24.314)、IJCV×3(IF: 13.369),第一发明人授权国家发明专利5项。相关技术成果在百度、蚂蚁金服、奇虎360等6个科技行业领军企业得到应用,产生了显著效益。曾入选中国科协及北京市科协“青年人才托举工程”,主持国自然青年科学基金等项目6项。曾获吴文俊人工智能优秀青年奖(2023)、吴文俊人工智能自然科学奖一等奖(2/5,2022)、新加坡模式识别与机器智能协会(PREMIA)Lee Hwee Kuan奖、ACM Multimedia唯一最佳学生论文奖(一作,1/208,CCF-A类会议,2018),7次在国际重要科技赛事中夺冠。

担任北京图象图形学学会理事,国际知名期刊《Artificial Intelligence Advances》、《IET Computer Vision》编委,《Pattern Recognition Letters》、《Electronics》特刊客座编辑,VALSE资深领域主席,ACM Multimedia 2021分论坛主席,CICAI 2022/2023领域主席,CCBR 2024论坛主席,中国人工智能学会/中国图象图形学学会高级会员,“挑战杯”大学生科技作品竞赛评委,中国人工智能大赛专家委委员等。

主页:https://zhaoj9014.github.io

论文截图

论文链接

https://arxiv.org/abs/2308.13764

代码链接

https://github.com/xiajianqiang

基于Transformer的高效单阶段短时RGB-T单目标跟踪方法 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自机器之心,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。