深い学習のザビエルの初期化方法

tf.contrib.layers.variance_scaling_initializer:tensorflowでは、初期化機能があります。はじめにTensorflow公式サイトは以下のとおりです。

variance_scaling_initializer(
係数= 2.0、
モード= 'FAN_IN'、
均一= Falseを、
種子=なし、
DTYPE = tf.float32

1つの
2
3
4
5
6
7
戻り分散をスケーリングすることなくテンソルを生成する初期化子。

深いネットワークを初期化するとき、最終的な層に到達することによって爆発または減少しないように、一定の入力分散のスケールを維持するために、原則的に有利です。この初期化子は、次の式を使用します。

入力接続の#カウントのみ番号:モード=「FAN_IN」の場合。
N = fan_inの
ELIFモード= 'FAN_OUT':#カウント出力接続の数だけ。
N = fan_outの
ELIFモード= 'FAN_AVG':入力および出力接続の#平均数。
N =(fan_in + fan_out)/2.0

truncated_normal(形状、0.0、STDDEV = SQRT(因子/ N-))
。1
2
。3
。4
。5
。6
。7
。8
回避するように、これらの単語は、この初期化方法を使用することによって、理解することができる、我々は、スケール変更入力変数が一定に保証することができネットワークの爆発最後の層中に分散規模の変更や。

この方法では、ザビエルの初期化方法は、あなたがこれらの2次の論文から、この方法について行くことができます:

・バツ。GlorotとY. Bengio。ニューラルネットワークdeepfeedforwardトレーニングの難しさを理解します。人工知能や統計に関する国際会議、ページ249-256、2010年に
Y.嘉、E. Shelhamer、J.ドナヒュー、S. Karayev、J.ロング、R. Girshick、S.Guadarrama、およびT.ダレル。カフェ:速いfeatureembeddingための畳み込みアーキテクチャ。arXivの:1408.5093、2014年
或者可以通过这些文章去了解:

CNN値
重いウェイトの初期化方法3つの
初期化メソッド--Xavier深い学習
---------------------
著者:道路は、道路下に離れているが、
CSDN:出典
元ます。https: //blog.csdn.net/u010185894/article/details/71104387
免責事項:この記事はブロガーのオリジナルの記事、再現され、ボーエンのリンクを添付してください!

 

おすすめ

転載: www.cnblogs.com/jfdwd/p/11273984.html