- 为什么在CNN等结构中将原先的sigmoid、tanh换成ReLU可以取得比较好的效果?
- 为什么在RNN中,将tanh换成ReLU不能取得类似的效果?
两个经典问题
猜你喜欢
转载自www.cnblogs.com/pengwang52/p/10891070.html
今日推荐
周排行