深度学习——BatchNormalization,ResNet,DenseNet,凸优化

批量归一化(BatchNormalization)

  • 作用:调整神经网络各层输出的稳定性。

1.全连接层的批量归一化

  • 位置:仿射变换与激活函数之间。
  • 仿射变换: x = W u + b \pmb{x}=\pmb{Wu}+\pmb{b}
  • 批量归一化: y = B N ( x ) \pmb{y}=BN(\pmb{x})
  • 激活函数: o u t p u t = ϕ ( y ) output=\phi(\pmb{y})
  • BN函数:对于 x \pmb{x} 的均值 μ B \pmb{\mu}_{B} 和方差 σ B 2 \pmb{\sigma}^2_{B} ,得到 x ^ ( i ) = x ( i ) μ B σ B 2 + ϵ \hat{x}^{(i)}=\frac{x^{(i)}-\pmb{\mu}_{B}}{\sqrt{\pmb{\sigma}^2_{B}+\epsilon}} y = γ x ^ + β \pmb{y}=\gamma \odot\hat{\pmb{x}}+\beta γ \gamma 为拉伸参数, β \beta 为偏移参数。

2.其他批量归一化

  • 卷积层批量归一化:卷积计算与激活函数之间。此外,需要对卷积层的每个通道输出分别进行批量归一化。对每个通道的batchsize×p×q个元素进行计算。
  • 训练的批量归一化:对每个批量计算均值和方差
  • 预测的批量归一化:移动平均估计整个训练集的均值和方差。
     
     

残差网络(ResNet)

  一般情况下,神经网络层数越多,效果越好。但是简单地增加深度会导致梯度消失或梯度爆炸,其解决方案是进行批量归一化。而批量归一化会造成另外的问题------退化问题,训练集上的loss逐渐下降,趋于饱和。举个例子,假设最优的网络结构是n层,但预设了m(>n)层,那么多出的层是冗余的,随着深度的增加模型准确率降低,会产生退化现象。所以我们希望多出的层通过训练能够是恒等映射,即经过这层的输入和输出完全一样。
  残差网络可以解决这样的退化问题,它的核心思想就是通过恒等映射学习残差函数。将冗余层训练成恒等层。
  残差网络由如下图的残差块组成,我们可以看出图中有一个捷径和右边的各种运算式输出。在训练中,通过学习残差 F ( x ) F(x) 来判断该层是否为冗余层

在这里插入图片描述

 
 

稠密连接网络(DenseNet)

  • DenseNet也是一种可以极深层数的卷积神经网络。与ResNet的不同点在于DenseNet每一层的输入都来自于前面所有层。
  • ResNet: x l = H l ( x l 1 ) + x l 1 x_l=H_l(x_{l-1})+x_{l-1}
  • DenseNet: x l = H l ( [ x 0 , x 1 , , x l 1 ] ) x_l=H_l([x_0,x_1,\dots,x_{l-1}])
  • DenseNet主要有两种模块:稠密块和过渡层。稠密块连接输入和输出,过渡层(1×1的卷积层)控制通道数。
     
     

凸优化

  优化方法的目标是降低训练集的损失而深度学习的目标是降低泛化误差,即测试集的损失。两者目标不同,易产生不好的效果。
  优化方法容易产生的问题:

  • 得到局部最小解,而非全局最优解
  • 鞍点(导数为0但不是极值的点)
  • 梯度消失

  凸优化可以解决以上问题。它是指定义在凸集中的凸函数最优化的问题。凸优化的局部最优值一定是全局最优值。

  • 凸集定义:对于任意 x , y C x,y∈C 和任意 θ ( 0 θ 1 ) \theta(0≤\theta≤1) 时,如果满足 θ x + ( 1 θ ) y C \theta x+(1-\theta)y∈C ,那么 C C 是凸集。其几何意义是取该集合内任意两点得到一个线段,若该线段完全落在该集合内,那么这个集合就是凸集。
  • 凸函数:对于定义域是凸集,函数 f f 上任意 x , y C x,y∈C 和任意 θ ( 0 θ 1 ) \theta(0≤\theta≤1) ,如果满足 f ( θ x + ( 1 θ ) y ) θ f ( x ) + ( 1 θ ) f ( y ) f(\theta x+(1-\theta)y)≤\theta f(x)+(1-\theta)f(y) ,那么函数 f f 是凸函数。
  • 凸优化问题: m i n f ( x ) s . t . g i ( x ) 0 , i = 1 , 2 , , m h j ( x ) = 0 , j = 1 , 2 , , n \begin{aligned}min \quad &f(x)\\s.t.\quad &g_i(x)≤0,i=1,2,\dots,m\\&h_j(x)=0,j=1,2,\dots,n\end{aligned} 其中 f ( x ) , g ( x ) f(x),g(x) 为凸函数, h ( x ) h(x) 为仿射函数。
发布了60 篇原创文章 · 获赞 2 · 访问量 1485

猜你喜欢

转载自blog.csdn.net/qq_40160983/article/details/104447254