pytorch中的膨胀卷积

编程入门 行业动态 更新时间:2024-10-08 00:25:27

pytorch中的膨胀<a href=https://www.elefans.com/category/jswz/34/1765938.html style=卷积"/>

pytorch中的膨胀卷积

一、膨胀卷积

Dilated Convolutions,翻译为扩张卷积或空洞卷积。扩张卷积与普通的卷积相比,除了卷积核的大小以外,还有一个扩张率(dilation rate)参数,主要用来表示扩张的大小。扩张卷积与普通卷积的相同点在于卷积核的大小是一样的,在神经网络中即参数数量不变,区别在于扩张卷积具有更大的感受野。感受野是卷积核在图像上看到的大小,例如5x5的卷积核的感受野大小为25。

二、膨胀卷积与普通卷积的区别

(一)、普通卷积

(二)、膨胀卷积

二、膨胀卷积的优点及其参数推导

膨胀卷积在保持参数个数不变的情况下增大了卷积核的感受野
(一)、普通卷积,dilation=1,感受野为3x3=9

(二)、膨胀卷积,dilation=2,感受野为5x5=25

(三)、膨胀卷积,dilation=4,感受野为9x9 = 81

3、感受野的概念

在卷积神经网络中,感受野的定义是 卷积神经网络每一层输出的特征图(feature map)上的像素点在原始图像上映射的区域大小

卷积核经过膨胀后实际参与运算的卷积大小计算公式:

膨胀后的卷积核尺寸 = 膨胀系数 × (原始卷积核尺寸-1)+ 1或原始卷积核尺寸×(原始卷积核尺寸-1)×(膨胀系数-1)。

例如对于输入是19 x 19大小的图像做膨胀卷积,要使输出的图像大小保持不变,即就是仍然为19 x 19。按照tensorflow的方法:
Output=(W-F+2P)/S+1

取strides=1,这里的原始卷积核为3 x 3大小,dilation=6,可以计算出膨胀后的卷积核大小为6(3-1)+1=13。
带入公式(19-13+2*p)/1+1=19,要使这个式子成立,可以反推出padding=6。

三、膨胀卷积的缺点

由于空洞卷积的卷积核不连续,不是所有的信息参与了计算,导致信息连续性的损失,引起栅格效应。
对于识别大物体有利,对于小物体有待于改进。下面为膨胀卷积的效果

更多推荐

pytorch中的膨胀卷积

本文发布于:2023-06-28 13:40:26,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/928302.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:卷积   pytorch

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!