两个经典问题

  • 为什么在CNN等结构中将原先的sigmoid、tanh换成ReLU可以取得比较好的效果?
  • 为什么在RNN中,将tanh换成ReLU不能取得类似的效果?

链接

猜你喜欢

转载自www.cnblogs.com/pengwang52/p/10891070.html