如何正确的理解激活函数?

神经网络中,会得到w0,w1,...wn,这些是各个特征的权重,如果输出output = w0x0+w1x1+...+wnxn 则训练得到的是特征的线性组合,如果只是线性组合,我们完全可以去掉所有隐藏层。

事实上,有很多情况下,特征与输出之间的关系是非线性的,所以我们需要一个通用的,可以逼近所有(线性与非线性)关系的网络

引入非线性激活函数的原因就在这里。

深度学习中,激活函数通常指能够实现非线性映射的函数

常见激活函数:

softmax函数

 

使用方法:

1、不同层的激活函数可以是不一样的。

2、sigmoid函数一般只用在2分类的输出层,且结果与softmax激活函数输出相同,我一般习惯统一使用softmax

3、ReLU (修正线性单元 Rectified Linear Unit)  最常用  y = max(0,x)

4\

猜你喜欢

转载自www.cnblogs.com/yjybupt/p/11647033.html