RASNet视频目标跟踪论文笔记

1. 论文信息

2. 概述

本文基于Siamese network网络结构,加入了注意力机制(包括残差注意力、通道注意力和总体注意力),这项注意力机制作为一个layer嵌入到Siamese network网络中,缓解了深度网络训练中的过拟合问题,还提升了网络的判别能力和适应性。

3. 研究思路(重要)

3.1 相关滤波跟踪

相关滤波跟踪的目标函数(岭回归):

(1) min w A w y 2 2 + λ w 2 2

求解,得:
(2) w = ( A T A + λ I ) 1 A T y

由于矩阵求逆过程很慢,因此可以将其转换到非线性空间,用对偶形式求解,得:
(3) w = A T α

有关相关滤波具体思想介绍,可以参考目标跟踪经典论文 High-Speed Tracking with Kernelized Correlation Filters(KCF),此处不再赘述。

从上述求解公式可以看出,传统相关滤波算法在建模过程中并没有考虑到目标物体图像特征的学习(主流相关滤波方法基本采用了HOG特征、CN特征,或者预训练好的CNN特征,严格来说,对于跟踪算法本身而言,没有特征学习的过程),而仅仅考虑了判别器的在线学习。

小结。传统相关滤波方法的特点:隔断了特征表示与判别学习

3.2 Siamese netowrk跟踪方法

Siamese网络tracking方法的总体结构图如下所示:
这里写图片描述

基本公式建模:

(4) f ( z , x ) = φ ( z ) φ ( x ) + b I

从上述公式(4)可以看出,与相关滤波方法不同,Siamese网络需要在函数 φ ( ) 中同时进行特征学习和判别学习,其判别结果体现在 f ( z , x ) ,另一方面,结合示意图可和公式以看出,Siamese网络的训练,只利用了单一样本 z

小结。传统Siamese网络跟踪方法的特点:

  • 同时进行特征学习和判别学习
  • 训练样本比较少,容易形成过拟合

3.3 CFNet跟踪方法

为了解决传统Siamese网络的少样本容易形成过拟合问题,CFNet在Siamese网络中引入循环矩阵(虚拟的多样本),并且借助循环矩阵的优势提升计算性能。但是和标准相关滤波方法类似,CFNet中也不可避免地带来了边界效应(boundary effect)。

小结。CFNet跟踪方法的特点:

  • 结合Siamese网络和相关滤波方法
  • 具有边界效应,一定程度上限制了算法性能

3.4 本文提出的方法(RASNet)

为了更好地解决过拟合问题,本文基于Siamese网络,将特征学习与判别学习分离。如何分离?通过多种注意力机制的cross correlation来进行分离。

4. RASNet目标跟踪方法

4.1 RASNet总体结构

这里写图片描述

从上图可以看出,本文基于Siamese网络进行改进,且本文最重要的创新点对应于图中的三个部分:① Residual Attention;② General Attention;③ Channel Attention,各个部分的作用如下所示:

  • Residual Attention:表示目标物体的全局信息(叠加、综合多帧视频画面中的目标信息)
  • General Attention:表示目标的“空间信息”,可以理解为传统相关滤波中的期望的高斯响应map
  • Channel Attention:表示特征通道信息,可以理解为对不同通道的特征进行加权处理

4.2 Residual Attention

这里写图片描述

论文用 ρ ~ 表示Residual Attention,它是一个二维的map,本质上是某种置信图,用于估计目标的共同(全局)特征

论文原文:The intuition behind this idea is that any one estimation might not capture both the common characteristics and distinctions of targets in different videos while a superposition of estimations might. The residual attention encodes the global information of the target and has low computation complexity. (from Section 3.3)

4.3 General Attention

这里写图片描述
论文用 ρ ¯ 表示,该变量也是一个二维矩阵,表示空间区域中的某种置信分布,其物理意义与相关滤波中基于高斯分布的期望输出比较类似,两者的区别在于:传统相关滤波中的期望输出通常为固定数值的二维矩阵,而本文的general attention是通过学习得到的

4.4 Dual Attention = Residual Attention + General Attention

这个没什么好说的,dual attention ρ 就是将上述residual attention和general attention进行叠加:

(5) ρ = ρ ¯ + ρ ~

两种Attention进行叠加的示意图下所示:

这里写图片描述

4.5 Channel Attention

一般情况下,经过卷积神经网络提取的特征通常都包含很多channel,其中每一层channel都代表了某种特定的模式,在不同的场景下,不同的channel可能具有相异的显著性(重要性),因此可以通过引入注意力机制对各个channel进行选择(这部分思想的出发点与CSR-DCF比较接近)。该部分的示意图如下所示:

这里写图片描述

这里,论文用 i 表示channel层号,第 i 层的特征输出为

(6) z ~ i = β i z i

4.6 融合

论文将上述三种Attention融合的思路示意图:
这里写图片描述

该融合思路,可以认为:首先将Residual Attention和General Attention进行“叠加”,得到Dual Attention,然后将Dual Attention与Channel Attention进行加权相乘。以下是论文的公式:

(7) f p , q = i = 0 m 1 j = 0 n 1 c = 0 d 1 ρ i , j β c ϕ i , j , c ( z ) ϕ p + i , q + j , c ( x ) + b

其中, ρ 表示Dual Attention, β 表示Channel Attention, z 表示模板图像, x 表示搜索图像。

在论文中,这样的融合思想就是Weighted Cross Correlation,其中weighted就体现在论文创新的Attention机制。

回顾本博客中的公式(4)——SiamFC跟踪算法的基本建模:

(4) f ( z , x ) = φ ( z ) φ ( x ) + b I

通过比较可以发现,论文所做的工作主要是:基于SiamFC,在模板图像中增加了注意力机制处理,以解决边界效应,实现更加鲁棒的目标跟踪方法。

4.7 网络结构

首先回顾SiamFC网络的loss function,下面是一个样本对的损失函数:

(8) L ( Z i , X j ) = 1 | | u log ( 1 + exp ( Z [ u ] X [ u ] ) )

这种方式可能存在过拟合的问题,如下图所示:
这里写图片描述

从图中可以看出,论文选择了8帧画面,对于SiamFC算法而言,一个training pair可能随机地包含了两帧画面,比如,#1和#4就有可能被选择为一组training pair,然而#4是目标处于完全遮挡下的状态,用这种方式来训练会导致过拟合,降低跟踪器的性能。

基于SiamFC跟踪算法的上述不足,论文采用了一种类似加权的思路进行改进,以下是论文中所有样本对的loss function:

(9) L a l l = i j L ( Z i , X j ) Ω ( i , j )

其中,

Ω ( i , j ) = exp ( | i j | σ )

表示时间上的有效性权重,其基本思想是:两帧之间隔得越远,权重就越低。如此,就可以很大程度上避免SiamFC算法存在的上述训练过拟合问题。

猜你喜欢

转载自blog.csdn.net/discoverer100/article/details/80754701
今日推荐