デプスハンズオン科学学習3 --- MLP MLP

1、中間層

MLPは、単一層ニューラルネットワークにおける隠れた複数の層に導入され、中間層は、入力層と出力層との間に配置されます

前記入力層4、カテゴリラベルの出力層3、5つの隠れユニット、計算を必要としない入力層、多層パーセプトロン2の層数の数

隠れ層のニューロンと入力層は、完全にそれぞれの入力に接続し、出力層のニューロンの隠れ層のニューロンは、完全に接続されたので、全体の接続層2:中間層と出力層

隠れ層の重みとバイアスを想定しているW H、B H、出力層の重みおよびバイアスはWであるoを、BはO、出力Oは次のように計算され

H = XWのH + bはH、

= HWのO O  + BのO

JI、O =(XW  + B H H)W O  + B O = XW W H O bはH W O + BのO

この場合には、ニューラルネットワークは依然として単層に相当し、出力層の重みは、Wがであり、H WはO、偏差B H WはO + B O

質問:モデルはまだ線形モデルは、どのように非線形問題を解決するのですか?

溶液:非線形変換---活性化機能を導入し、非線形問題を解決します

図2に示すように、活性化関数

(1)ReLU機能

与えられた要素x、ReLU(X)= MAX(X、0)

(2)SIGMOD関数

 要素の値を変換すると、0と1の間で、より一般的に早期に使用されるニューラルネットワークは、今より一般的にReLUです

(3)TANH関数

双曲線正接関数TANH要素の値は1と1との間で変換することができます。

3、多層パーセプトロン

多層パーセプトロンニューラルネットワークは、各隠れ層の出力は、活性化関数によって変換される少なくとも1つの隠れ層からなるフル含む接続層(中間層)、です

隠れ層MLPのレイヤーとレイヤーがスーパーパラメータである、あなたは自分自身を設定することができます

これは、活性化関数を表し、

 

おすすめ

転載: www.cnblogs.com/slfh/p/10897126.html
MLP