第五讲-卷积神经网络--课时13--卷积和池化

全连接


------------------------------------------------------------------------------------------------------------------------------

卷积

卷积通过卷积核的参数共享,减少了参数数量(非常有效)。

卷积核就是参数,需要反向传播学习得到。

卷积核与全连接的权重参数不同,它只关心局部特征。而fully connected NN的权重W关注了全部特征。

-------------------------------------------------------------------------------------------------------------------------

卷积也有激活函数,同样要RELU

---------------------------------------------------------------------------------------------------------------------------

扫描二维码关注公众号,回复: 181036 查看本文章

由于需要每层结点足够多,原始图像多层卷积之后逐渐变得小而深(n_H,n_W减小,n_c增加)

---------------------------------------------------------------------------------------------------------------------------

!注意,不论是全连接还是卷积,就是通过不断的特征转换,将图像特征变成线性可分的


---------------------------------------------------------------------------------------------------------------------------

卷积后的大小

n_new = (n+2p-f)/s + 1 

注意,卷积核尺寸需要与图像合适,不能空出来卷积不了的位置。即n_new需要是整数

---------------------------------------------------------------------------------------------------------------------------

可以通过padding弥补corner的采样不足。同时可以使得图像大小(n_H,n_W)不变!

若s=1,卷积核 为 f*f ,则左右两边各采用 (f-1)/2的padding,可以使尺寸不变。

若不使用padding,尺寸会很快减小,这样的卷积神经网络的效果不会好的。


---------------------------------------------------------------------------------------------------------------------------

卷积核的数目k一般为2的指数倍



猜你喜欢

转载自blog.csdn.net/qq_39638957/article/details/80151123