卷积网络基础知识---Depthwise Convolution && Pointwise Convolution && Separable Convolution

mac2024-03-27  29

Depthwise(DW)卷积与Pointwise(PW)卷积,合起来被称作Depthwise Separable Convolution(参见Google的Xception),卷积神经网络在图像处理具备强大的提取特征的能力,相比全连接又消耗更少的参数,不过受限于移动端设备的硬件条件,仍然达不到运算量的要求,于是,Separable Convolution比卷积神经网络明显降低运算量,所以在一些轻量级网络中会碰到这种结构如MobileNet。

常规卷积操作 对于一张5×5像素、三通道彩色输入图片(shape为5×5×3)。经过3×3卷积核的卷积层(假设输出通道数为4,则卷积核shape为3×3×3×4),最终输出4个Feature Map,如果有same padding则尺寸与输入层相同(5×5),如果没有则为尺寸变为3×3。

4 x 3 x 3 x 3 = 108

Depthwise Separable Convolution Depthwise Separable Convolution是将一个完整的卷积运算分解为两步进行,即Depthwise Convolution与Pointwise Convolution。

Depthwise Convolution 不同于常规卷积操作,Depthwise Convolution的一个卷积核负责一个通道,一个通道只被一个卷积核卷积。上面所提到的常规卷积每个卷积核是同时操作输入图片的每个通道。 同样是对于一张5×5像素、三通道彩色输入图片(shape为5×5×3),Depthwise Convolution首先经过第一次卷积运算,不同于上面的常规卷积,DW完全是在二维平面内进行。卷积核的数量与上一层的通道数相同(通道和卷积核一一对应)。所以一个三通道的图像经过运算后生成了3个Feature map(如果有same padding则尺寸与输入层相同为5×5),如下图所示。

3 × 3 × 3 = 27

Depthwise Convolution完成后的Feature map数量与输入层的通道数相同,无法扩展Feature map。而且这种运算对输入层的每个通道独立进行卷积运算,没有有效的利用不同通道在相同空间位置上的feature信息。因此需要Pointwise Convolution来将这些Feature map进行组合生成新的Feature map。

Pointwise Convolution Pointwise Convolution的运算与常规卷积运算非常相似,它的卷积核的尺寸为 1×1×M,M为上一层的通道数。所以这里的卷积运算会将上一步的map在深度方向上进行加权组合,生成新的Feature map。有几个卷积核就有几个输出Feature map。如下图所示。

1 × 1 × 3 × 4 = 12

结论:

普通卷积参数是(3*3*3)*4=108个; dw+pw的参数有 (3*3)*3+3 * 4=39个,卷积参数减少,运算量减少,因此可以将网络层数加深。

 

引用:

Depthwise卷积与Pointwise卷积

卷积神经网络中的Separable Convolution

最新回复(0)