TensorFlow函数之tf.nn.relu()

tf.nn.relu()函数是将大于0的数保持不变,小于0的数置为0,函数如图1所示。

ReLU函数是常用的神经网络激活函数之一。

 图1 ReLU函数图像

下边为ReLU例子:

import tensorflow as tf

v = tf.constant([-3, 5, 6, -6,9])

sess = tf.Session()
print('v的原始值为:', end='')
print(sess.run(v))

print('v的ReLu后的值为:', end='')
print(sess.run(tf.nn.relu(v)))

sess.close()

输出为:

v的原始值为:[-3  5  6 -6  9]
v的ReLu后的值为:[0 5 6 0 9]

猜你喜欢

转载自blog.csdn.net/Sophia_11/article/details/84032227