(李沐DL)卷积

原则一:平移不变形
x的平移导致h的平移 二维卷积 kennel是不变的体现了平移不变性
原则二:局部性
当我们评估hi,j时,我们不应该考虑远离xi,j的参数
对全链接层使用平移不变性,和局部性得到卷积层

#卷积层
input kernel output
交叉相关和卷积差别不大

1. 卷积层将输入和kennel矩阵进行交叉相关,再加上偏移后得到输出
2. 核矩阵和偏移是可学习的参数
3. 核矩阵的大小是超参数

感受野: 
是卷积神经网络每一层输出的特征体上的像素点的输入图片上映射的区域大小(和kernnel有关)

填充 padding 周围额外添加行列的0
步幅 stride 
层数越多计算越复杂

总结:
1. 填充和步幅是卷积层的超参数
2. 填充在输入周围天假额外的行/列,来控制输出形状的减少量
3. 步幅是每次滑动核窗口时的行/列的步长

卷积核一般选奇数
卷积核5*5 会比3*3昂贵一些
数据预处理也会对结果产生影响
验证集设置的比较好的话可以避免过拟合

卷积层里的多输入多输出通道:

是一个超参数
灰度图是一个通道
彩色图:通道大小是3 RGB
每一个通道都有一个卷积核,结果是所有通道卷积结果的和
输入是多维度的 卷积核相应也是多维的
多输出通道:
无论多少输入通道,到目前为止我们只用到但输出通道
我们可以有多个三维卷积核,每个核生成一个输出通道

每个输出通道可以识别特定的模式,输入通道核识别并组合输入中的模式

#特殊卷积
1*1的卷积 高和宽都是1 不会识别空间信息,只融合不同通道信息。 等价于把输入拉成向量。 等价于一个全链接层

1. 输出通道数是卷积层的超参数 
2. 每个输入通道有独立的二维卷积核,所有通道结果相加得到一个输出通道结果
3. 每个输出通道有独立的三维卷积核

bias在实际中影响不大
核的参数是学习出来的不是自己设置的

#池化层:
积对位置敏感
1个像素位移会导致0输出

二维最大池化:
1. 和卷积很相似不过不做乘积之和而是在移动中选择窗口中最大的值
2. 池化层和卷积类似具有填充pandding和步幅stride 
3. 没有可学习的参数 没有kennel K
4. 在每个通道应用池化层以获得相应的输出通道,不会融合多通道
5. 输出通道 = 输入通道数

平均池化层,就是将最大值换成平均值


返回窗口最大值或者平均值
缓解卷积层对位置的敏感性
同样是有窗口大小,步幅,填充等超参数

深度学习框架中步幅和池化窗口大小相同

池化层一般放在卷积之后
pandding可以传入一个元组 (在周围填充)

猜你喜欢

转载自blog.csdn.net/qq_45675231/article/details/130230066
今日推荐