tf.layers.dropout与tf.nn.dropout的区别

转载:https://blog.csdn.net/Bruce_Wang02/article/details/81036796

对于这两个方法有一下几点区别:

  1. tf.nn.dropout 中参数 keep_prob :每一个元素被保存下的概率。而 tf.layer.dropout 中参数 rate :每一个元素丢弃的概率。所以,keep_prob = 1 - rate。
  2. 在 tf.layer.dropout 中有一个 training 参数:在training模式中,返回应用dropout后的输出;或者在非training模式下,正常返回输出(没有dropout)。这里说的training模式也即是training参数为True的时候。

猜你喜欢

转载自blog.csdn.net/qq_38409301/article/details/89108595
今日推荐