深度学习之神经网络(二)

深度学习之神经网络(二)

一、神经网络起源:线性回归

 正向就是计算结果,反向就是训练

(一)概念

在这里插入图片描述

(二)一个线性回归问题

在这里插入图片描述

(三)优化方法:梯度下降

在这里插入图片描述
在这里插入图片描述

二、从线性到非线性

在这里插入图片描述

(一)常用的非线性激励函数:Sigmoid

在这里插入图片描述
在这里插入图片描述

(二)tahn函数

在这里插入图片描述
在这里插入图片描述

(三)ReLU函数

在这里插入图片描述

三、神经网络的构建

(一)神经元的“并联”和“串联”

在这里插入图片描述

(二)神经网络优化

在这里插入图片描述

四、神经网络的“配件”

(一)损失函数

(1)Softmax

在这里插入图片描述

(2)Cross entropy

在这里插入图片描述

(二)学习率Learning rate

在这里插入图片描述

(三)动量

在这里插入图片描述
在这里插入图片描述

(四)过拟合应对

(1)正则化

在这里插入图片描述

(2)Dropout和pooling

在这里插入图片描述

(3)Fine-tuning/Data Augmentation

在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/qq_41511262/article/details/105374598