正則化関数でTensorFlow L2:使用tf.nn.l2_loss()とtf.contrib.layers.l2_regularizerd()の類似点と相違点を有します

正則化関数L2、tf.contrib.layers.l2_regularizerd()関数は、TF 2.xのバージョンで廃止されTensorFlow tf.nn.l2_loss()とtf.contrib.layers.l2_regularizerd()です。

双方は、L2正則化プロセスを使用することができるが、操作が少し異なっています。

輸入TFとしてtensorflow
性別 = InteractiveSession()

A = tf.constant([1、2、3]、DTYPE = tf.float32)
B = tf.nn.l2_loss(A)
 印刷(b.eval())    7.0
、各数の二乗を計算し、2件ので割っtf.nn.l2_loss位
#1 (= B 1 2 +2 2 +3 。3)/ 2 = 7.0

それぞれのtf.contrib.layers.l2_regularizerd()オペレーションは、開口部の数の平方根であり、2つの、すなわち、で割った(1 2 + 2 2 + 3 3 0.5  / 2 

私はTFバージョンを使用することはできません l2_regularizerd機能を、何のデモコードはありません。

tf.nn.l2_loss

おすすめ

転載: www.cnblogs.com/panda-blog/p/12358404.html