deeplearning.ai之卷积神经网络

1. 卷积层的优点:

2. 经典网络架构介绍

LeNet-5

  • 池化层为均值,而目前主流为max
  • 激活函数为sigmod或者tanh,而目前主流为relu

AlexNet

  • Local Response Normalization(LRN):
    认为网络不需要那么多高激活神经元,因此将某些位置进行归一化处理(即对某点所有通道上的值进行归一化)。

VGG-19

  • VGG网络的特征是简单,只使用3x3的卷积层和2x2的池化层。

ResNet

  • 通过添加跳跃连接,改变了模块的输出。当w与b均接近0时,该模块作用消失;否则,认为学习到了一些有用的特征。通过这种特性,可以避免网络加深性能变差的现像!
  • 若a[l+1]与a[l]维度不一致,则在需a[l]前乘上一个转换矩阵W,保证与a[l+1]维度一致!

GoogleNet

  • 使用Inception模块,可以让网络自己决定使用卷积层的大小(通过核参数值决定)。
  • GoogleNet在网络中间添加输出层预测结果,可以防止过拟合和缓解梯度消失学习困难的问题!

3. 提高识别率的Tips

- 10-crop:即取待检测图像及其镜像图像中心子区域及四角子区域,共计10张子图进行检测,将平均检测结果作为最终识别结果!

4. Face Recognition

人脸验证

实质上是利用CNN提取人脸特征,然后进行特征匹配:

人脸验证的损失函数:
其中,A是特定人的人脸图,P也是该人的人脸图,视为正样本,N不是该人的人脸图,视为负样本!

5. Neural Style Transfer

寻找各层九个最大的激活图像区域:

损失函数定义:

内容图像损失函数:

风格图像损失函数:

构建gram矩阵,计算各激活层间的相关性:

猜你喜欢

转载自blog.csdn.net/u012554092/article/details/78761918
今日推荐