ElitesAI·动手学深度学习PyTorch版学习笔记-卷积神经网络基础;leNet;卷积神经网络进阶

宅家中看到Datawhale的学习号召,在大牛云集的群上找到了一个很佛系的小组,战战兢兢地开始了小白的深度学习之旅。感谢Datawhale、伯禹教育、和鲸科技,感谢课程制作者、组织者、各位助教以及其他志愿者!

1 卷积神经网络基础
1.1 二维卷积
本小节介绍了二维卷积,主要用于图像数据(刚好是二维的数据)处理。
二维卷积通过输入二维数据和二维核数据的运算(卷积),得到一个小于输入数据的二维输出数据,但是该输出数据依然部分保存了输入数据的信息。输出的二维数据可以看作输入数据的一个缩略图,也叫特征图。对输出有影响的所有可能的输入区域叫做输出数据的感受野(感受域?)
1.2 步幅和填充
卷积核每一次在输入数据上滑动的行数或者列数(每一次滑动几步)叫做卷积的步幅。但有时步幅并不能整除输入数据的行数或者列数,为了让卷积核可以在输入数据上按照步幅移动并取到整个卷积核大小的数据,需要在输入数据周围填充一些0以便于运算。
1.3 多输入和多输出
多输入单输出通道的数据,可以让不同通道的输入数据与各自卷积核分别运算,然后再将运算结果相加。
单输入多输出通道的数据,可以用同一个输入数据分别用多个卷积核分别运算,然后输出多个卷积结果。
多输入多输出,并且输入和输出通道数量不相等的数据,可以用1×1的卷积核来改变通道数。
1.4 与全连接层比较
卷积层与全连接层相比,没有将二维向量“展平”为一维,相邻元素依然相邻,易于捕捉局部信息。卷积层的参数量更少,处理大图像运算速度更快。
1.5 池化
池化层类似卷积层,但不同的是池化窗口(类似卷积核)将窗口内的输入数据简单地取平均值(“液化”),然后输出。池化运算可以缓解卷积层对位置的过度敏感性(类似图片的“边缘模糊”处理)。
池化层不会对各通道结果相加,也就是说,输出通道与输入相等。

发布了6 篇原创文章 · 获赞 0 · 访问量 194

猜你喜欢

转载自blog.csdn.net/liuyi6111/article/details/104381233