激活函数汇总(最近更新:2019/10/20)

〇、写在前面

本文对笔者学习过程中用到的激活函数做一个汇总,在需要复习的时候看这篇文章就够了。参考的资料过于繁杂这里不再列出。

一、机器学习

二、深度学习相关

在这里插入图片描述

2.1 sigmoid

y = 1 1 + e z y=\frac{1}{1+e^{-z}}
在这里插入图片描述

2.2 tanh

在这里插入图片描述
g ( x ) = t a n h ( x ) = e x e x e x + e x g(x)=tanh(x)=\frac{e^x-e^{-x}}{e^x+e^{-x}}
g ( x ) = 1 [ g ( x ) ] 2 g'(x)=1-[g(x)]^2

2.3 relu

在这里插入图片描述
y = m a x ( 0 , z ) y=max(0,z)

2.4 softmax

softmax ( z ) i = exp ( z i ) j exp ( z j ) \operatorname{softmax}(z)_{i}=\frac{\exp \left(z_{i}\right)}{\sum_{j} \exp \left(z_{j}\right)}
对多类别分类,概率和为1
在这里插入图片描述

发布了60 篇原创文章 · 获赞 32 · 访问量 2万+

猜你喜欢

转载自blog.csdn.net/weixin_42297855/article/details/102649049
今日推荐