变种卷积汇总整理

1x1卷积的原理与应用

(163条消息) 1x1卷积的作用_salary_up_27k的博客-CSDN博客_1x1卷积

深度笔记|1x1卷积核的作用 - 知乎

1.有的时候,我们想在不增加感受野的情况下,让网络加深,为的就是引入更多的非线性

2.升维或者降维卷积后的的 featuremap 通道数是与卷积核的个数相同的,为什么要用 1x1 呢,在训练的时候,卷积核里面的值就是要训练的权重,3x3 的尺寸是 1x1 所需要内存的 9 倍,其它的类似。所以,有时根据实际情况只想单纯的去提升或者降低 feature map 的通道,1x1 无疑是一个值得考虑的选项。

3.减少计算量,降维其实就能体现参数量的降低了,还有就是在inception module 里面的体现

扩张(dilated/Atrous)卷积的原理与应用//Atrous是法文来着

(38 封私信 / 36 条消息) 如何理解空洞卷积(dilated convolution)? - 知乎 (zhihu.com)

空洞(扩张)卷积(Dilated/Atrous Convolution) - 知乎 (zhihu.com)

1.dilated的好处是不做pooling损失信息的情况下,加大了感受野,让每个卷积输出都包含较大范围的信息,可以在相同感受野大小的前提下,空洞卷积比普通卷积的参数量更少。

2.对时间的建模长度受限于卷积核大小的,如果要想抓去更长的依赖关系,就需要线性的堆叠很多的层。为了解决这个问题,研究人员提出了膨胀卷积。

因果 (causal)卷积的原理与应用

(165条消息) 时序模型(一)—— TCN 时间卷积网络_微知girl的博客-CSDN博客_时间卷积网络 //2.1因果卷积
(165条消息) TCN-时间卷积网络_满腹的小不甘_静静的博客-CSDN博客_时间卷积网络

preview

1. 即对于上一层t时刻的值,只依赖于下一层t时刻及其之前的值。和传统的卷积神经网络的不同之处在于,因果卷积不能看到未来的数据,它是单向的结构,不是双向的。也就是说只有有了前面的因才有后面的果,是一种严格的时间约束模型,因此被成为因果卷积,符合对时间序列建模的前提假设。

猜你喜欢

转载自blog.csdn.net/weixin_43332715/article/details/124214722