Tensorflow学习记录

激活函数
1、relu函数:小于0时都为0,大于0是是多少就多少输出。
2、sigmoid函数:它的值在0到1之间,靠近0时变化剧烈,远离时变化缓慢。
3、tanh函数:它的值在-1到1之间,根据值映射到他们之间。
4、Leak relu函数:正值原样输出,负值压缩输出。

猜你喜欢

转载自blog.csdn.net/wflsyf/article/details/118188406
今日推荐