数tf.nn.reluを設定()関数は、0が0未満である、図2に示す機能0が一定に保たれるよりも数も大きいです。
ReLU機能は、一般的に使用されるニューラルネットワークの活性化関数の一つです。
ReLUは、以下の例であります:
import tensorflow as tf
v = tf.constant([-3, 5, 6, -6,9])
sess = tf.Session()
print('v的原始值为:', end='')
print(sess.run(v))
print('v的ReLu后的值为:', end='')
print(sess.run(tf.nn.relu(v)))
sess.close()
出力は次のようになります。
v的原始值为:[-3 5 6 -6 9]
v的ReLu后的值为:[0 5 6 0 9]