特征金字塔结构 FPN,终于听明白了它的原理"/>
关于特征金字塔结构 FPN,终于听明白了它的原理
总结:
浅层网络(下层网络) 感受野小,但是只能感受到纹理等细粒度的特征,在此小目标的特征和大目标特征在此些层 的特征比例分布还算均衡,因此还能被损失函数识别,因此能被识别出来
在高层网络(末端,上层网络),感受野大,能综合更多的语义信息,但是小目标在此些层已经相关的特征了,或者特征数量不足,导致 和大目标 特征信息比例严重失衡,无法被损失函数识别,因此导致
无法更新的模型的权重中去,所以,仅仅用高层网络抽取出来的信息去识别小目标,是不行的。
所以,用FPN结构,综合多层的特征信息,可以有效的识别 中小目标,提高他们的召回率。31:00
关于 FPN里的特征融合
=distribute.pc_relevant_t0.none-task-blog-2%7Edefault%7EBlogCommendFromMachineLearnPai2%7Edefault-1.control&depth_1-utm_source=distribute.pc_relevant_t0.none-task-blog-2%7Edefault%7EBlogCommendFromMachineLearnPai2%7Edefault-1.control
以及 高清大图图解
FPN(特征金字塔)图解
Q1:不同深度的feature map为什么可以经过upsample后直接相加?
答:作者解释说这个原因在于我们做了end-to-end的training,因为不同层的参数不是固定的,不同层同时给监督做end-to-end training,所以相加训练出来的东西能够更有效地融合浅层和深层的信息。
原文链接:
更多推荐
关于特征金字塔结构 FPN,终于听明白了它的原理
发布评论