【注】:
1.1 轻量化模型
LightTrack: Finding Lightweight Neural Networks for Object Tracking via One-Shot Architecture Search
2021CVPR
LightTrack采用one-shot NAS的方法搜索结构,流程如图2所示。整个过程训练与搜索是解耦的,首先训练超网(随机采样路径进行训练),然后用进化算法从超网中寻找最优子结构。实验可以看到三个版本mobile,largeA,largeB在性能、计算量和参数量上都具有优势。在骁龙845中,LightTrack运行速度比Ocean快12倍,参数量减少13倍,计算量减少38倍。作者称这种改进可能会缩小学术模型和工业部署在物体跟踪任务中的差距。
Efficient Visual Tracking with Exemplar Transformers
本文对transformer架构进行轻量化,提出了一种高效的Exemplar Transformer来替代卷积。E.T.Track在CPU上速度达到47FPS,比其他基于transformer的跟踪器快8倍,作者称这是目前唯一的实时transformer-based的跟踪器。
FEAR: Fast, Efficient, Accurate and Robust Visual Tracker
提出两个轻量化模型,dual-template module和pixel-wise fusion block。前者使用一个可学习的参数集成了时域信息,而后者使用更少的参数编码了更有判别性的特征。使用复杂的backbone,本文方法FEAR-M和FEAR-L在速度和精度上超过大多数算法;而使用轻量backbone的版本FEAR-XS比目前的Siamese跟踪器快10倍以上的跟踪速度,同时保持接近的精度。FEAR-XS比LightTrack小2.4倍,快4.3倍,且具有更高的精度。此外,本文引入能耗和速度来扩展模型效率的定义。
1.2 超长跟踪探索
LTMU:High-Performance Long-Term Tracking with Meta-Updater 王栋老师组
2020CVPR
Improved SPLT: Effective Local and Global Search for Fast Long-term Tracking王栋老师组
2022TPAMI
‘Skimming-perusal’ tracking: A framework for real-time and robust long-term tracking王栋老师组
2019 ICCV
Long-term tracking in the wild:A benchmark
2018ECCV SiamFC+简单的重检测机制
2.1 2022 CVPR
-
Transformer Tracking with Cyclic Shifting Window Attention
paper: https://arxiv.org/abs/2205.03806
code: https://github.com/SkyeSong38/CSWinTT
循环为一窗口注意力模型 -
Unified Transformer Tracker for Object Tracking
paper: https://arxiv.org/abs/2203.15175
code: https://github.com/Flowerfan/Trackron
将多目标跟踪和单目标跟踪统一建模的基于Transformer 的跟踪方法。以往多目标跟踪和单目标跟踪是计算机视觉领域中两个相对独立的领域,该文为跟踪问题建立了统一的基于Transformer 的方法 Unified Transformer Tracker (UTT) ,SOT 和 MOT 任务都可以在这个框架内解决。 -
Global Tracking via Ensemble of Local Trackers
paper: https://arxiv.org/abs/2203.16092
基于局部跟踪器集成的全局跟踪(单目标跟踪)。该方法的提出为了应对”长期跟踪”中由于突然运动和遮挡造成的目标消失,在多个数据集中均显示出优越的性能。 -
Visible-Thermal UAV Tracking: A Large-Scale Benchmark and New Baseline卢湖川组
paper: https://arxiv.org/abs/2204.04120
code: https://zhang-pengyu.github.io/DUT-VTUAV
可见光-热成像 无人机视觉:大规模基准及新基线算法。500个序列,170万个高分辨(1920×1080)帧对,提供了从粗到细的属性注释,作者提出了新baseline :Hierarchical Multi-modal Fusion Tracker (HMFT)。 -
Unsupervised Learning of Accurate Siamese Tracking
paper: https://arxiv.org/abs/2204.01475
code: https://github.com/FlorinShum/ULAST
无监督学习 + Siamese Tracking (单目标跟踪)。该文通过研究向前和向后跟踪视频来获得自监督信息,扩展了Siamese Tracking方法,新方法大大优于之前的无监督方法,甚至在大规模数据集( TrackingNet 和 LaSOT)上的表现与监督方法相当。 -
MeMOT: Multi-Object Tracking with Memory
具有记忆的多目标跟踪,作者发明了一个通用的检测与关联框架,使多目标跟踪可跟踪到长时间消失的目标,具体做法使用一个大的时空记忆存储目标的身份信息,并可据此自适应参考和聚合有用的信息。 -
TCTrack: Temporal Contexts for Aerial Tracking
paper: https://arxiv.org/abs/2203.01885
code: https://github.com/vision4robotics/TCTrack
无人机视觉中的目标跟踪。建模”连续帧之间的时间上下文信息”,精度高、速度快,在真实世界的无人机上测试,其在 NVIDIA Jetson AGX Xavier 上的速度超过 27 FPS。 -
Global Tracking Transformers
paper: https://arxiv.org/abs/2203.13250
code: https://github.com/xingyizhou/GTR
以往多目标跟踪技术中 tracking-by-detection 的方法,需要对相邻帧的目标进行”成对关联”,作者提出的方法是对多帧图像序列中的目标进行”全局关联”,取得了 MOTA 75.3 mAP 和 HOTA 59.1 mAP 的成绩,在TAO数据集上超出baseline 7.7 mAP。 -
Transforming Model Prediction for Tracking
paper: https://arxiv.org/abs/2203.11192
code: https://github.com/visionml/pytracking -
MixFormer: End-to-End Tracking with Iterative Mixed Attention
paper: https://arxiv.org/abs/2203.11082
code: https://github.com/MCG-NJU/MixFormer -
Unsupervised Domain Adaptation for Nighttime Aerial Tracking
paper: https://arxiv.org/abs/2203.10541
code: https://github.com/vision4robotics/UDAT -
TCTrack: Temporal Contexts for Aerial Tracking
paper: https://arxiv.org/abs/2203.01885
code: https://github.com/vision4robotics/TCTrack -
Correlation-Aware Deep Tracking
paper: https://arxiv.org/abs/2203.01666
作者提出一种新型目标相关特征网络,用于目标跟踪中的特征提取,可方便应用于现有跟踪算法管道中,提高跟踪性能。
2.2 2021 ICCV
STARK: Learning Spatio-Temporal Transformer for Visual Tracking卢湖川组
paper: https://arxiv.org/abs/2103.17154
code: https://github.com/researchmm/Stark
Learn to Match: Automatic Matching Network Design for Visual Tracking
paper: https://arxiv.org/abs/2108.00803
code: https://github.com/JudasDie/SOTS
HiFT: Hierarchical Feature Transformer for Aerial Tracking
paper: https://arxiv.org/abs/2108.00202
code: https://github.com/vision4robotics/HiFT
Learning to Adversarially Blur Visual Object Tracking
paper: https://arxiv.org/abs/2107.12085
code: https://github.com/tsingqguo/ABA
Learning target candidate association to keep track of what not to track
paper: https://arxiv.org/abs/2103.16556
code: https://github.com/visionml/pytracking
对干扰目标提出相关举措。
Video Annotation for Visual Tracking via Selection and Refinement卢湖川组
2.3 2021 CVPR
Transformer Tracking卢湖川组
Alpha-Refine: Boosting Tracking Performance by Precise Bounding Box Estimation卢湖川组
LightTrack: Finding Lightweight Neural Networks for Object Tracking via One-Shot Architecture Search卢湖川组
2.4 2020 CVPR
High-Performance Long-Term Tracking with Meta-Updater 卢湖川组[Best Paper Award Nominee]
2.5 2020 ACMMM
Online Filtering Training Samples for Robust Visual Tracking 卢湖川组
2.6 2022 IEEE Transactions on Pattern Analysis and Machine Intelligence
Effective Local and Global Search for Fast Long-term Tracking 卢湖川组
Original: https://blog.csdn.net/m0_37412775/article/details/123804222
Author: 三晚不过弦一郎
Title: 目标跟踪论文整理(不全,以单目标为主)
原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/711175/
转载文章受原作者版权保护。转载请注明原作者出处!