一个全连接的参数量:
p
a
r
a
m
s
=
(
N
i
+
1
)
×
N
o
params=(N_i+1)\times{N_o}
params=(Ni+1)×No
其中,
N
i
N_i
Ni 表示输入特征向量权重个数,
N
o
N_o
No 表示输出特征向量的权重个数,+1表示偏置,直接理解参数量与输入输出个数有关。
一个全连接的计算量:
F
L
O
P
s
=
[
I
i
+
(
I
i
−
1
)
+
1
]
×
I
o
FLOPs= [I_i+(I_i-1)+1]\times{I_o}
FLOPs=[Ii+(Ii−1)+1]×Io
其中,
I
i
I_i
Ii 表示输入特征数,
I
i
−
1
I_i-1
Ii−1 表示加法次数,+1表示偏置,
I
o
I_o
Io 表示输出的特征个数,也是与输入输出个数有关。(注:
F
L
O
P
S
FLOPS
FLOPS 指的是机器每秒浮点运算次数,衡量硬件指标,与
F
L
O
P
s
FLOPs
FLOPs 是浮点运算数,理解为模型计算量)
一层卷积的参数量:
p
a
r
a
m
s
=
(
k
w
×
k
h
×
C
i
+
1
)
×
C
o
params = (k_w\times{k_h}\times{C_{i}}+1)\times{C_o}
params=(kw×kh×Ci+1)×Co
其中,
k
w
k_w
kw 和
k
h
k_h
kh 是卷积核的宽和高,
C
i
C_i
Ci 和
C
o
C_o
Co 表示输入通道和输出通道,+1表示偏置,若
k
w
k_w
kw 和
k
h
k_h
kh 相等,则为
(
k
2
×
C
i
+
1
)
×
C
o
(k^2\times{C_i+1})\times{C_o}
(k2×Ci+1)×Co ,可以理解为参数量只与卷积核和输入输出通道有关。
一层卷积的计算量:
F
L
O
P
s
=
[
(
C
i
×
k
w
×
k
h
)
+
(
C
i
×
k
w
×
k
h
−
1
)
+
1
]
×
C
o
×
W
i
×
H
i
FLOPs = \left[(C_i\times{k_w\times{k_h}})+(C_i\times{k_w\times{k_h-1}})+1\right]\times{C_o\times{W_i}\times{H_i}}
FLOPs=[(Ci×kw×kh)+(Ci×kw×kh−1)+1]×Co×Wi×Hi
其中,第一个小括号表示乘法运算量,第二个小括号表示加法运算量(可以理解为一次卷积多少个数相加减1),+1表示偏置,
C
o
C_o
Co 表示输出通道数,
W
i
W_i
Wi 是输入的宽,
H
i
H_i
Hi 是输入的高,可以理解为计算量与卷积核和输入输出通道以及输入的大小有关。
深度可分离卷积:
给定一个
D
F
×
D
F
×
M
D_F\times{D_F}\times{M}
DF×DF×M 的特征图生成一个
D
F
×
D
F
×
N
D_F\times{D_F}\times{N}
DF×DF×N 的特征图
正常卷积核尺寸:
D
K
×
D
K
×
M
×
N
D_K\times{D_K}\times{M}\times{N}
DK×DK×M×N ,计算量为:
2
(
M
×
D
K
×
D
K
)
×
D
F
×
D
F
2(M\times{D_K\times{D_K}})\times{D_F}\times{D_F}
2(M×DK×DK)×DF×DF, 深度可分离卷积中,深度卷积尺寸是
D
K
×
D
K
×
M
D_K\times{D_K}\times{M}
DK×DK×M ,每个卷积核的通道数为1,
2
(
M
×
D
K
×
D
K
)
×
D
F
×
D
F
2(M\times{}D_K\times{D_K})\times{D_F}\times{D_F}
2(M×DK×DK)×DF×DF;点卷积尺寸是
M
×
1
×
1
×
N
M\times1\times{1}\times{N}
M×1×1×N, 每个卷积核尺寸是
1
×
1
1\times1
1×1 ,计算量是
2
×
M
×
N
×
D
F
×
D
F
2\times{M}\times{N}\times{D_F}\times{D_F}
2×M×N×DF×DF, 都按照正常卷积的公式带入即可,所以深度可分离卷积的计算量是:
2
(
D
K
×
D
K
)
×
N
×
D
F
×
D
F
+
2
(
M
×
N
×
D
F
×
D
F
)
2(D_K\times{D_K})\times{N}\times{D_F}\times{D_F} + 2(M\times{N}\times{D_F}\times{D_F})
2(DK×DK)×N×DF×DF+2(M×N×DF×DF)
所以深度可分离卷积与传统卷积的计算量之比:
2
(
M
×
D
K
×
D
K
)
×
D
F
×
D
F
+
2
(
M
×
N
×
D
F
×
D
F
)
2
(
M
×
D
K
×
D
K
)
×
N
×
D
F
×
D
F
=
1
N
+
1
D
K
2
\frac{2(M\times{}D_K\times{D_K})\times{D_F}\times{D_F}+2(M\times{N}\times{D_F}\times{D_F})}{2(M\times{D_K}\times{D_K})\times{N}\times{D_F}\times{D_F}} = \frac{1}{N}+\frac{1}{D_K^2}
2(M×DK×DK)×N×DF×DF2(M×DK×DK)×DF×DF+2(M×N×DF×DF)=N1+DK21
所以3x3的深度可分离卷积减少8-9倍的计算量,而精度只降低一点。先进行深度卷积再进行点卷积以此分离正常的卷积步骤。
理解深度可分离卷积的过程下面这张图更好理解:
分组卷积:
第一张图是正常卷积,第二张图是分组卷积,对于正常卷积的参数量是 h 1 × w 1 × c 1 × c 2 h_1\times{w_1}\times{c_1}\times{c_2} h1×w1×c1×c2 ,对于分组卷积的参数量指的是 h 1 × w 1 × c 1 g × c 2 g × g h_1\times{w_1}\times{\frac{c_1}{g}}\times{\frac{c_2}{g}}\times{g} h1×w1×gc1×gc2×g ,可以这样解释:原特征图分成 g g g 组,每一组生成 c 2 g \frac{c_2}{g} gc2 通道的特征图, h 1 × w 1 × c 1 g × c 2 g h_1\times{w_1}\times{\frac{c_1}{g}}\times{\frac{c_2}{g}} h1×w1×gc1×gc2 的含义是一组的参数,一共有 g g g 组所以得到参数如上所述。所以分组卷积的参数量是标准卷积的 1 g \frac{1}{g} g1 ,所以分组卷积减少参数量。
分组卷积的作用:减少参数量,可以看成稀疏操作(相当于正则化操作),当输入输出特征图数量一致时就是深度卷积。
这张图更容易理解分组卷积:
参考链接:
神经网络中的参数量和计算量
CNN模型复杂度(FLOPs、MAC)、参数量与运行速度
深度可分离卷积
深度学习_卷积神经网络_分组卷积
理解分组卷积和深度可分离卷积如何降低参数量
CNN模型复杂度(FLOPs、MAC)、参数量与运行速度