ABD-Net:reID行人重试别sota(ICCV2019)

(SOTA in ICCV 2019) ABD-Net: Attentive but Diverse Person Re-Identification
<u>https://arxiv.org/pdf/1908.01114.pdf</u>
论文关键词:注意力attention,正交正则化Orthogonality regularization
关于weight间correlation与正交正则化的相关知识,请参考://www.greatytc.com/p/3a9660e2dfbc

个人总结:本文提出了一种attention网络,网络同时用到了channel wise attention与spatial wise attention,但是这样高度attention的特征会造成correlation过高,retrieve阶效果不好,因此加入了正交正则化来让attention变得diverse。最终在多个数据集包括MSMT达到了sota效果。

但是本文模型结构可能偏复杂,计算attention步骤计算量大,且特征为两路特征拼接而成,输出特征维度过大(2048),可能在最终计算效率上存在缺陷。

前言
由于一些遮挡、身体不完全的情况存在,attention机制被采用进来,去使得特征主要捕捉人体的外表信息。

一个更理想的模型是要同时保证attentive和diverse:
1、attentive的目的是纠正不对齐的现象,减小背景的特征占比,增大前景的比重
2、diverse的目的是feature间的correlation更加diverse,使得检索环节效率更高,特征空间表达更详细,因为模型过分关注前景后,由于训练样本不均衡导致feature与网络weight间高correlation会更加严重,进而限制了特征的表达。

Attention部分的做法

1、channel wise attention module

Attention机制的目的是,关注行人的前景特征,去除无关背景。

作为一种共识,深层CNN提取的特征是含有语义信息的,在reID任务中,我们假设人体的深层特征也是存在共通性的,比如一些channel共享相似的语义信息(比如前景人体、遮挡物、背景等),因此这部分的目的是聚集这部分语义相似的channel。

image.png

A=C x H x W代表特征图,C是这个特征图的通道数,计算各通道间的相似性矩阵X如下

image.png

这个xij代表channel i 对channel j的影响程度,最终得到输出的特征图为

image.png

其中γ是一个超参数,调整channel wise attention 的影响程度。

2、position attention module

虽然本文用的是position,但理解上和传统说的spatial attention 应该是同个意思,只是改了个说法。这个模块被设计来聚集语义上相近的像素。

image.png

输入的特征图首先放入卷积层,卷积层带有BN操作与ReLU激活,然后计算像素相似矩阵S,最终得到输出特征E,计算流程与channel attention module 类似。

Diversity模块:正交正则化

正交正则化使得模型学到信息更丰富与diverse更高的feature。一些研究使用了hard orthogonality约束,使用SVD分解,去严格约束解在stiefel 流型(通过坐标原点的所有n维平面集合,可看做商空间),但是对高维特征进行svd分解开销过大,目前有一些soft orthogonality的方法,能保证正则化后相乘回来的gram 矩阵的二范数几乎不变.

*知识补充:

1、奇异矩阵:若A找不到一个矩阵B,是的AB=BA=I,那么A是奇异的,反之为非奇异矩阵;奇异矩阵的特点为行列式等于0;(singular,找不对配对的相乘为I的矩阵,所以也可以理解为单身矩阵)

2、矩阵条件数:表征矩阵的奇异程度。

本文提出一种新方法,直接正则化FFT的条件数

网络结构总览

image.png

本文增加了一层CAM和OF(特征正交正则化)在 res_conv_2 block上,正则化后的特征作为block 3的输入,block4以后,block5的网络分为了平行的两条全局分支与注意力分支,最终两个分支的特征concate起来就是最终feature。所有的卷积层都使用了OW(权重正交正则化)

注意力分支使用的卷积结构与resnet50的block5完全一致,输出特征图进入缩小层(reduction layer)。注意力分支的特征同时进入CAM和PAM,两个注意力分支输出的特征

element wise加和,最终和输入特征拼接起来。

global分支经过block5之后,先进行一次global pooling后再进行一次reduction layer.

最终训练用的loss为:

image.png

reduction layer:由线性层、BN层、RELU、dropout构成,具体结构需要参考:

<u>https://github.com/KaiyangZhou/deep-person-reid</u>

训练细节与具体实现:

输入图片resize成384X128,使用了随机水平翻转、随机擦除、像素归一化等argumentation操作。测试集仅用normalization.注意力分支的特征图为1024x24x8,全局分支特征图为2048x24x8,最终拼接global pooling得到的特征为2048。

Back bone 为resnet50,使用two-step方法transfer learning去finetune模型:first step.先冻结backbone 权重,只训练reduction layer,分类器和所有attention 模块共10个epoch,期间只用cross entropy和triplet。Second step.所有层开始训练60个epoch,所有loss都运行,参数选择βtr = 10−1 , βOF = 10−6 ,βOW = 10−3 , margin for triplet loss α = 1.2.

优化器为adam,使用了warmup。(本文的baseline基本全部用到了之前的strong baseline)。

评测指标:mAP,RANK-1。

实验结果:

实验结果在三个数据集上测评market,Duke,MSMT,对比用baseline为resnet50+softmax,一共设计了9组实验,以判别PAM,CAM, O.W. , O.F.等各trick的作用。

image.png

实验结果如下:

1、PAM和CAM在两个数据集上都提升了baseline,同时使用两种attention,使得结果有了进一步提升

2、OF,OW也都能提升效果,一起使用能更进一步提升效果,因此本文提出的正交正则化是证明有效的。另外也hard svd作了对比,发现这种基于OW的soft svd效果反而更好

3、组合attention和diversity,指标又有了进一步的提升,如果在Loss加入triplet,那么还能进一步提升。

特征图可视化

image.png

可以看到CAM使得网络更加关注与人体上的特征,防止过拟合到与人体无关的噪音上,但是过于集中的特征会使得特征表示上更加相关,加入了OW后发现特征确实变得diverse了:处理后的特征达到了更好的平衡,即关注了更多人体部分的特征,同时也很好的把人从背景分割出来。

Feature correlation

本文还对比了不同方法下channel输出的特征的correlation matrix。特征为global pooling 前,reshape成CXN,其中N=HXW,发现baseline网络的特征关联最低=0.049,加入了PAM和CAM后,关联度变高=0.368,而在加入了OW正则化后,这个关联度确实被抑制了=0.214;(这个correlation指的是什么?)

观察feature的embedding分布,发现加了attention后,特征分布变散了,加了ow后又聚了回来

image.png
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,692评论 6 501
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,482评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,995评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,223评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,245评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,208评论 1 299
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,091评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,929评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,346评论 1 311
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,570评论 2 333
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,739评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,437评论 5 344
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,037评论 3 326
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,677评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,833评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,760评论 2 369
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,647评论 2 354