一句话理解深度学习中1×1卷积的作用

作用

以图片为例,只改变数据特征的通道数,图片数据的(H)与(W)维持,不发生改变

介绍

      使用 1x1 的卷积操作可以实现通道数的改变,这是因为 1x1 卷积的作用是在每个空间位置进行逐元素的线性变换。虽然它的卷积核大小很小,但它能够改变数据的通道数。
下面是对这个过程的解释: 

1.输入数据的形状为 [B, C, H, W],其中 B 是批次大小(batch size),C 是输入数据的通道数(channels),H 和 W 是输入数据的高度和宽度。
2.对输入数据应用 1x1 的卷积操作,卷积核的形状为 [C', C],其中 C' 是输出数据的通道数。
3.在每个空间位置,1x1 卷积会对输入数据的通道维度进行线性变换,将输入通道的每个元素与对应的卷积核参数进行点乘并相加,产生输出通道的一个元素。
4.经过 1x1 卷积操作后,输出数据的形状变为 [B, C', H, W],其中 B 是批次大小,C' 是输出数据的通道数,H 和 W 保持不变。

       通过这种方式,1x1 卷积操作可以改变数据的通道数,从而在深度学习模型中起到调整和控制特征通道维度的作用。它通常被用于改变特征的维度、调整网络的参数量和计算量,并且可以在不改变特征图空间尺寸的情况下引入非线性变换。
     由于 1x1 卷积操作的计算量较小,它在很多深度学习模型中被广泛使用,例如用于降低通道数、增加非线性表达能力以及实现特征的维度变换等。

猜你喜欢

转载自blog.csdn.net/weixin_52890053/article/details/132529050