End-to-end flow correlation tracking with spatial-temporal attention, CVPR 2018
1. 了解他人如何将时序信息加入到网络中
2. spatial-temporal attention(时空注意力机制)
Object tracking
1. 将时序信息加入到网络中来解决遮挡问题和形变问题
该算法分为两个分支。
在Current Branch中,使用Feature Net提取当前帧的特征 ψ ( z ) psi(z) ψ(z)
在Historical Branch中,
spatial attention
作者对前i帧的加权融合提出了一种新的加权策略
简单来讲,就是衡量第 i 帧的特征和t-1帧像不像,像的话就给一个比较大的权值,不像就给一个比较小的权值
temporal attention
实际上就是通道注意力机制,即对各特征通道进行加权,重新定义每个特征通道的权重。对于激活程度较大、贡献度较大的通道给予大的权重;对于激活程度较小、贡献度较小的通道给予小的权重
在success plots of OPE中,FlowTrack的AUC score是0.689,超过了VOT2016的冠军CCOT,并且超过了另外一个使用flow information的算法SINT+
在Precision plots of OPE中,FlowTrack的得分是0.921,也超过了CCOT和SINT+。
效果能得到提升主要归功于丰富的光流信息
从图中可以发现FlowTrack算法的效果是最好的
decay:fuse the wraped feature maps by decaying with time
从表中可以发现,
1. 算法的速度较慢,只有在TITAN X上只有12fps
2. 算法的效果并不能超过级联RPN(CVPR2019)
1. spatial-temporal attention机制
详见5.2
2. 光流的融合方式
取最近的T帧,然后将这T帧提取分别与第t-1帧计算光流,然后将这T帧的光流融合在一起,使用注意力机制,对每一帧赋予不同的权重
Hadamard Product:矩阵中对应位置相乘
参考资料:
参考资料:
余弦相似度:两个向量之间夹角的余弦值
s i m i l a r i t y = c o s ( θ ) = A ⋅ B ∣ ∣ A ∣ ∣ ∣ ∣ B ∣ ∣ similarity = cos(theta) = frac{A cdot B}{||A|| ||B||} similarity=cos(θ)=∣∣A∣∣ ∣∣B∣∣A⋅B
参考资料:
参考资料:
参考资料:.html
参考资料:
本文发布于:2024-01-29 20:04:10,感谢您对本站的认可!
本文链接:https://www.4u4v.net/it/170652985417942.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |