TensorFlowの基礎(4) - tf.nn.relu()

数tf.nn.reluを設定()関数は、0が0未満である、図2に示す機能0が一定に保たれるよりも数も大きいです。

ReLU機能は、一般的に使用されるニューラルネットワークの活性化関数の一つです。


 


ReLUは、以下の例であります:

import tensorflow as tf
 
v = tf.constant([-3, 5, 6, -6,9])
 
sess = tf.Session()
print('v的原始值为:', end='')
print(sess.run(v))
 
print('v的ReLu后的值为:', end='')
print(sess.run(tf.nn.relu(v)))
 
sess.close()


出力は次のようになります。

v的原始值为:[-3  5  6 -6  9]
v的ReLu后的值为:[0 5 6 0 9]

 

公開された352元の記事 ウォンの賞賛115 ビュー130 000 +

おすすめ

転載: blog.csdn.net/Aidam_Bo/article/details/103189899