阅读小结:Fine

编程入门 行业动态 更新时间:2024-10-06 12:24:34

阅读<a href=https://www.elefans.com/category/jswz/34/1769750.html style=小结:Fine"/>

阅读小结:Fine

这是一篇baidu research的paper。

主题为细力度分类。这个问题在于找到一些关键的细节。比如在鸟类数据集CUB上,专家往往也是通过鸟的尾巴,或者头部来对鸟类分类的。


What:

预测细力度分类的CNN+MDP的网络。

1. 融合了三个元素: 特征提取,attetion 和细力度分类一起训练。(比如有些之前paper是把attetion part额外切割出来的。如鸟的头部专门train个CNN。最后多个model fusion)

2. 使用了弱监督的增强学习(reinforcelearning),不需要额外的标注信息。(比如语义分割信息)

3. 全卷积网络提升了训练和测试速度。

4.贪心的奖励策略加速了收敛。


读前疑问:

1.最后怎么结合reinforce learning的?

其实attention的选择可以看成马尔科夫决策过程中的action(我选择哪个atttention去看)

最后的reward为分类结果的好坏。





How:

模型分为3个部分

1. Feature Map Extraction:

在训练时复用了feature map(后面叉出来的3路,用的所有map都是之前map上的crop,而非原始图上的crop)

而在测试时图像和所有的attention crop都会resize到一个指定尺寸。

2. Part Attention

这部分将原始输入,转为了single channel的图片,做了softmax 将activation都转为[0,1]之间的值。视为part的置信度。

在测试中模型选择有最高probability的区域(图中小白点)作为part location。而在训练过程中模型采样了多次。

3.细力度分类

每一个patch都有一个cnn负责。随后为softmax。

在测试中,最后prediction为softmax结果的average,再取最大。


4.训练过程中优化目标


函数2 前半段是最大化奖励R  后半段实际上就是原来的分类误差L最小。

R可以由   选这个attention概率乘对应的reward得到


看下面这张图比较清晰。



5.reward大小的策略

如果上一个判断对了,马上就reward 1。

如果这次对了,上次分类的objective比这次大(也就是上次判断得不好),也reward1.

否则是 0.



更多推荐

阅读小结:Fine

本文发布于:2024-03-08 23:01:15,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1722742.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:小结   Fine

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!