卷积"/>
pytorch中的膨胀卷积
一、膨胀卷积
Dilated Convolutions,翻译为扩张卷积或空洞卷积。扩张卷积与普通的卷积相比,除了卷积核的大小以外,还有一个扩张率(dilation rate)参数,主要用来表示扩张的大小。扩张卷积与普通卷积的相同点在于卷积核的大小是一样的,在神经网络中即参数数量不变,区别在于扩张卷积具有更大的感受野。感受野是卷积核在图像上看到的大小,例如5x5的卷积核的感受野大小为25。
二、膨胀卷积与普通卷积的区别
(一)、普通卷积
(二)、膨胀卷积
二、膨胀卷积的优点及其参数推导
膨胀卷积在保持参数个数不变的情况下增大了卷积核的感受野
(一)、普通卷积,dilation=1,感受野为3x3=9
(二)、膨胀卷积,dilation=2,感受野为5x5=25
(三)、膨胀卷积,dilation=4,感受野为9x9 = 81
3、感受野的概念
在卷积神经网络中,感受野的定义是 卷积神经网络每一层输出的特征图(feature map)上的像素点在原始图像上映射的区域大小
卷积核经过膨胀后实际参与运算的卷积大小计算公式:
膨胀后的卷积核尺寸 = 膨胀系数 × (原始卷积核尺寸-1)+ 1或原始卷积核尺寸×(原始卷积核尺寸-1)×(膨胀系数-1)。
例如对于输入是19 x 19大小的图像做膨胀卷积,要使输出的图像大小保持不变,即就是仍然为19 x 19。按照tensorflow的方法:
Output=(W-F+2P)/S+1
取strides=1,这里的原始卷积核为3 x 3大小,dilation=6,可以计算出膨胀后的卷积核大小为6(3-1)+1=13。
带入公式(19-13+2*p)/1+1=19,要使这个式子成立,可以反推出padding=6。
三、膨胀卷积的缺点
由于空洞卷积的卷积核不连续,不是所有的信息参与了计算,导致信息连续性的损失,引起栅格效应。
对于识别大物体有利,对于小物体有待于改进。下面为膨胀卷积的效果
更多推荐
pytorch中的膨胀卷积
发布评论