单个样本 多个样本
激活函数
tanh 比sigmle 好,是因为数据平均值为0.
但是数据太大或者太小,在激活函数对应的斜率为0,梯度下降很难,梯度消失。
relu 是默认的激活函数,因为大于0的,斜率为1.小于0的斜率为0,。梯度不会消失
使用激活函数可以引入非线性,函数表现的好
一般sigmle应用到输出层,2分类
relu用在隐藏层
神经网路的bp
激活函数
tanh 比sigmle 好,是因为数据平均值为0.
但是数据太大或者太小,在激活函数对应的斜率为0,梯度下降很难,梯度消失。
relu 是默认的激活函数,因为大于0的,斜率为1.小于0的斜率为0,。梯度不会消失
使用激活函数可以引入非线性,函数表现的好
一般sigmle应用到输出层,2分类
relu用在隐藏层
神经网路的bp