前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >论文文献阅读笔记_IN characteristic of learning

论文文献阅读笔记_IN characteristic of learning

作者头像
全栈程序员站长
发布2022-11-10 14:38:10
1960
发布2022-11-10 14:38:10
举报
文章被收录于专栏:全栈程序员必看

大家好,又见面了,我是你们的朋友全栈君。

MGN的核心思想是利用global feature+fine grain feature做特征融合然后分类,做part-based的branch取得很简单就是等分,但是为了让模型能收敛,用了多个patch的loss混合训练。看文章结果很不错,只用了给的数据集里面的trainset就能达到90+。github上只有pytorch版本,准备这段时间自己搞一个纯TF版本出来。

Motivation

1.基于区域的方法主要是通过定位预先设定好的特殊区域来学习局部特征。对于高方差的场景效率并不高而且不鲁棒。

常用的part-based方法分为三类:

(1)根据先验知识,例如对人体结构的知识划分结构

(2)利用RPN定位区域

(3)中层次的注意力机制定位区域

2.基于全局特征的方法容易在小数据集上忽略细节

3.许多方法并不能End2End

Spot light

1.构建了3个branch,Coarse to fine使用全局特征和局部特征融合

2.End2End

3.同时使用Triplet loss和softmax

Result

不额外使用数据集仅使用简单的数据增强就能达到非常好的mAP

使用re-rank后效果更好

Structure

这部分直接从我OneNote截取的,重要的部分我已经直接标在图中

论文文献阅读笔记_IN characteristic of learning
论文文献阅读笔记_IN characteristic of learning

Loss设计

softmax: 使用normface的版本,不加bias

论文文献阅读笔记_IN characteristic of learning
论文文献阅读笔记_IN characteristic of learning

Triplet loss:使用batch hard triplet loss

论文文献阅读笔记_IN characteristic of learning
论文文献阅读笔记_IN characteristic of learning

训练时的loss则是将图中所有同类loss相加等除之后再相加avg(triplet)+avg(softmax)

Hyper parameters

DataAugmentation:random horizontal flipping

Pretrain:全部加载Resnet50

Optimizer:momentum 0.9

L2_regularizer:5e-4

Learning rate:1e-2(40 epoch)1e-3(60 epoch)1e-4(80 epoch)

Evaluation

将所有256-dim的特征concat (8 x 256)=2048

测试的时候将原始特征和flipping后的特征求avg为最终结果

Discussion

1.使用Conv4_1的特征作为分支是实验出来的结果,前或后效果都不好

2.粒度多样性,Global学习全局但是粗糙特征,Branch学习局部但是精细特征

3.对于局部特征不应该使用triplet loss,因为切的时候就是等分,局部特征var很大

4.使用softmax有利于模型收敛,而triplet则是为了拉大inter-class var(度量学习了)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/188884.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022年9月27日 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档