Depthwise卷积与Pointwise卷积

Depthwise卷积与Pointwise卷积

你经常看 深度学习(Deep Learning) 话题的内容

Depthwise(DW)卷积与Pointwise(PW)卷积,合起来被称作Depthwise Separable Convolution(参见Google的Xception),该结构和常规卷积操作类似,可用来提取特征,但相比于常规卷积操作,其参数量和运算成本较低。所以在一些轻量级网络中会碰到这种结构如MobileNet。

常规卷积操作

对于一张5×5像素、三通道彩色输入图片(shape为5×5×3)。经过3×3卷积核的卷积层(假设输出通道数为4,则卷积核shape为3×3×3×4),最终输出4个Feature Map,如果有same padding则尺寸与输入层相同(5×5),如果没有则为尺寸变为3×3。

此时,卷积层共4个Filter,每个Filter包含了3个Kernel,每个Kernel的大小为3×3。因此卷积层的参数数量可以用如下公式来计算:
N_std = 4 × 3 × 3 × 3 = 108

Depthwise Separable Convolution

Depthwise Separable Convolution是将一个完整的卷积运算分解为两步进行,即Depthwise Convolution与Pointwise Convolution。

Depthwise Convolution

不同于常规卷积操作,Depthwise Convolution的一个卷积核负责一个通道,一个通道只被一个卷积核卷积。上面所提到的常规卷积每个卷积核是同时操作输入图片的每个通道。

同样是对于一张5×5像素、三通道彩色输入图片(shape为5×5×3),Depthwise Convolution首先经过第一次卷积运算,不同于上面的常规卷积,DW完全是在二维平面内进行。卷积核的数量与上一层的通道数相同(通道和卷积核一一对应)。所以一个三通道的图像经过运算后生成了3个Feature map(如果有same padding则尺寸与输入层相同为5×5),如下图所示。

其中一个Filter只包含一个大小为3×3的Kernel,卷积部分的参数个数计算如下:
N_depthwise = 3 × 3 × 3 = 27

Depthwise Convolution完成后的Feature map数量与输入层的通道数相同,无法扩展Feature map。而且这种运算对输入层的每个通道独立进行卷积运算,没有有效的利用不同通道在相同空间位置上的feature信息。因此需要Pointwise Convolution来将这些Feature map进行组合生成新的Feature map。

Pointwise Convolution

Pointwise Convolution的运算与常规卷积运算非常相似,它的卷积核的尺寸为 1×1×M,M为上一层的通道数。所以这里的卷积运算会将上一步的map在深度方向上进行加权组合,生成新的Feature map。有几个卷积核就有几个输出Feature map。如下图所示。

由于采用的是1×1卷积的方式,此步中卷积涉及到的参数个数可以计算为:
N_pointwise = 1 × 1 × 3 × 4 = 12

经过Pointwise Convolution之后,同样输出了4张Feature map,与常规卷积的输出维度相同。

参数对比

回顾一下,常规卷积的参数个数为:
N_std = 4 × 3 × 3 × 3 = 108

Separable Convolution的参数由两部分相加得到:
N_depthwise = 3 × 3 × 3 = 27
N_pointwise = 1 × 1 × 3 × 4 = 12
N_separable = N_depthwise + N_pointwise = 39

相同的输入,同样是得到4张Feature map,Separable Convolution的参数个数是常规卷积的约1/3。因此,在参数量相同的前提下,采用Separable Convolution的神经网络层数可以做的更深。

参考:

编辑于 2019-08-28 12:02
「真诚赞赏,手留余香」
还没有人赞赏,快来当第一个赞赏的人吧!
发布一条带图评论吧

36 条评论
默认
最新
沈景兵

depth-wise卷积虽然参数量少了,但是计算速度却变慢了。因为GPU IO的瓶颈。

2020-06-14
大厨

主要不在于能不能存下,而在于GPU从显存获取参数的带宽,这里的结论基于一种假设,即DW后运算量会下降明显,而访存量由于输入输出及中间各层数据的存在可能下降没那么明显,故运算强度下降明显,可能落入roofline model中的mem-bound区域,再假设针对此网络的GPU显存带宽较小,才会导致可能的推理速度下降。。

不喜欢这么多‘可能’,本意是想引入背后的roofline model(也就是你关心的为啥),但实际不好笼统地说变慢,还是取决于实际网络模型具体情况(运算强度前后变化,访存前后变化,GPU实际roofline曲线,显存带宽等)

笼统地说变慢,可能是用了某种框架对DW支持还不好吧估计是。

2023-07-14
未央君
运算速度下降了不少
2020-10-13
游虎臻

“上面所提到的常规卷积每个卷积核是同时操作输入图片的每个通道“? 这句话有问题吗?常规卷积核的每一个也是仅负责一个通道吧,只是有很多卷积核负责相同的通道。

2020-09-20
打工仔

一个卷积核是k×k,一个filter才是k×k×c,n个filter是k×k×c×n

2023-07-20
wsdsb000
常规卷积的卷积核尺寸为 K*K*C,C为输入层的特征图通道数,一个卷积核能同时负责每个通道,没什么问题吧。dw conv只是因为C=1了,所以一个卷积核只能负责一个通道。
2022-04-26
隐秘的碉堡
CSDN上有一篇同样的文章,发布时间更早,且用户名区别较大。您这是转载的么?
2021-05-20
闷声干事
kernel和filter名词混用,部分理解容易混淆,除此之外解释很清晰
2022-02-24
匿名的xuai锅

写的真清楚!

2020-11-26
天青等雨

请问3D的卷积图是用什么软件画的

2020-01-16
咔擦

请问channelwise 和depthwise是同一个意思吗

2020-06-12
Gavin

讲得很好感谢

2023-09-27
叶秋
运算成本并不低
2020-07-01
阿点

讲的很好,感谢分享!!

2020-06-04
点击查看全部评论
发布一条带图评论吧

文章被以下专栏收录