[CVPR2019]Patch

编程入门 行业动态 更新时间:2024-10-12 16:29:03

[CVPR2019]<a href=https://www.elefans.com/category/jswz/34/1693892.html style=Patch"/>

[CVPR2019]Patch

文章目录

  • 1. 摘要
  • 2. 方法
    • 2.1 算法总体框架
    • 2.2 Patch Generation Network(补丁生成网络)
    • 2.3 Patch-based Discriminative Feature Learning(局部特征度量学习PEDAL)
    • 2.3 Image-level Patch Feature Learning(总特征度量学习IPFL)
    • 2.4 总损失函数
  • 3. 实验结果

1. 摘要

局部特征在有监督ReID应用极其有效,但是由于目标域缺少标签,导致局部特征在无监督领域并不能发挥性能。
该论文提出一个网络框架和两个损失函数,使得局部特征能够在无监督方向使用。

  • 提出一个网络框架(PatchNet)。
  • 提出两个损失函数,一个补丁级损失(PEDAL)和一个图像级损失(IPFL)。

2. 方法

2.1 算法总体框架


PatchNet包括CNN主干网络和补丁生成网络(Patch generation network, PGN)组成。首先利用随机图像变换行人图像生成替代正样本,将他们输入CNN得到特征图,然后经过PGN网络得到M个补丁块,接着用M个独立的CNN网络提取小特征图的特征作为局部特征,并将他们拼接作为该行人图像的总特征。PEDAL和IPFL损失函数分别对局部特征和全局特征进行度量学习。

2.2 Patch Generation Network(补丁生成网络)


LN包含一个卷积层和两个全连接层,输出 Θ = [ θ 1 , . . . , θ m , . . . , θ M ] Θ = [θ1, . . . , θm, . . . , θM] Θ=[θ1,...,θm,...,θM],通过得到的θ可以得到需要采样的网格区域,并利用采样器对特征图进行采样得到M个Patch。

2.3 Patch-based Discriminative Feature Learning(局部特征度量学习PEDAL)


定义 x i m x_i^m xim​为mini-batch(迷你批量)的第i张图片的第m个局部特征,需要将它与其他所有图片的第m个局部特征进行比较,但由于batch无法实现,所以定义一个patch memory bank,用于存储所有图片的patch特征,表示为 W m = { w j m } j = 1 N W_m = \{w^m _j \}^N _{j=1} Wm​={wjm​}j=1N​。

公式中t代表训练周期,m代表第m个局部特征,j代表图像的序号。
在训练之前,初始化所有图像的M个局部特征,存入memory bank当中。
将 x i m x_i^m xim​与其它所有图像的第m个局部特征进行比较,得到k近邻集合 K i m K_i^m Kim​,定义损失函数 L c m L_c^m Lcm​。

优化目标是拉近 x i m x_i^m xim​的k近邻与 x i m x_i^m xim​的距离,拉远 x i m x_i^m xim​与非k近邻的距离,也就是使得相似的图像距离更加接近,不相似的图像距离更远。
讨论
在以往的ReID方法中,利用聚类分配伪标签等方法拉近相似图像之间的距离在一定程度上能够提高性能,但是存在无法分辨不同行人相似图像的问题。但在Patch-level并不存在这个问题,一张图片的M个Patch包含着不同区域的信息,两张不同行人的相似图像只会存在一些Patch的相似,而不会存在所有Patch的相似,故拉近相似Patch之间的距离是有效的。

2.3 Image-level Patch Feature Learning(总特征度量学习IPFL)

这一部分构造三元组实现难样本三元组损失。
难样本负样本挖掘
如果有两个行人图像的总特征都为彼此的k近邻,则判断两者大概率为同一行人的图像。同理,若行人图像A为行人图像B的k近邻,可A的k近邻中却没有B,则判断A为B的难负样本。

给定 x i x_i xi​,计算 x i x_i xi​与小批量 B i B_i Bi​的其它图像距离并进行排序,得到k近邻,对 x i x_i xi​的k近邻图像计算它的排序序列,判断 x i x_i xi​是否位于它的k近邻,取第一个 x i x_i xi​不位于它的k近邻的 x j x_j xj​作为难负样本 n i n_i ni​。

替代正样本生成
由于小批量中存在正样本的可能性较小,则添加替代正样本,将行人图像做随机图像变换生成替代正样本的总特征。

这个损失函数使得 x i x_i xi​和正样本的距离尽可能的缩小,使得 x i x_i xi​和负样本的距离尽可能的增加。

2.4 总损失函数

3. 实验结果

在Mark1501和DukeMTMC两个数据库上进行试验,LN网络在MSMT17上进行预训练。

更多推荐

[CVPR2019]Patch

本文发布于:2024-03-12 04:09:36,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1730663.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:Patch

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!