ニューラルネットワークと機械学習研究ノートバージョン3 - 第1章ローゼンブラットパーセプトロン

ニューラルネットワークと機械学習研究ノートバージョン3 

     - 初心者のノートには、疑問のすべての種類のレコードは、時間的な思考を過ごします

第一章ローゼンブラットパーセプトロン

1、ページ32

なぜ停滞1.1で間違ったシンボルにおけるn番目の反復、シンボルのn + 1回の内積の反復が正しいでしょうか?

    已知$ \イータは\ X \左> \左を(nは右\)(nは右\)X ^ T \は左(N \右)左| $····························| W ^ T \はX \(N \右)\右から左(nは右\)左··························①

    (1)(右1 \)\で\ varphi \左(N右\)$を$のXの\左を仮定し、即ち、正しい結果が内積0より大きい:$のW ^ {\開始{アレイ} {C} T \\ \端{アレイ}} \左(N右\)X \左> 0 $(N右\)。

    シンボル誤差の範囲内で$ \累積番目の反復$ N理由

    左$ \したがってW ^ {\開始{アレイ} {C} T \\\端{アレイ}} \(N右\)X \左(N右\)<0 $

    $ \ X \は(N右\)\で\ varphi \左(1 \右)\ \ \ランドW ^ {\開始{アレイ} {C} T \\\端{アレイ}} \左を左ため<0 $(nは\右)(nは右\)X \左

    したがって、左\ W $ \(N + 1 \右)= W \はなるように、(nは右\)X \(nは右\)左$ //プラス正の数+ \イータは\左(nは右\)左体積増加(P30式1.6)次の

    $ \従って^ W T \左(N + 1 \右)= W ^ T \は+ \ ETA \左X ^ T \(N右\)左(N右\)$(N \右)左

    $ \従って^ W T \左(N + 1 \右)X \左= W ^ T \(N右\)左(N右\)X \(N \右)左+ \ ETA \左(N \右)X ^ T \は(nはX \(N \右)$左)右\左

    ①\ RIGHTARROW \エータは\左ので又$ \(X \左> -W ^ T \は左(nは右\)(nは\右)(nは右\)X ^ T \は左(nは右\)X \左N \右)$

    $ \従ってT \は(N + 1 \右)X \左(N右\)> 0 $を左^ W

    つまり、N + 1反復記号の製品を正しく。

    (2)場合、「$ X \は(N右\)左同じ理由\で\ varphi \左(2 \右)\ランドW ^ {\開始{アレイ} {C} T \\\端{アレイ}左はX \左(N右\)場合} \> 0 $」、正しくN + 1つの反復シンボルの積を(N右\)。

2、P。33

約2.1 "C IJ "

    CのIJ人気の説明:$ X \で\ varphi \左(私は\右)$ $を危険にさらして、誤って分類された\ varphi \(J \左右)$

3、34ページ

3.1なぜC11 <C21&C22 <C12?

    誤分類のより大きなリスクのため。

3.2最適な分類ポリシーの起源。

    最適な分類の戦略について、すなわち:最小のリスクを実現しています。

    したがって、最適な分類ように$ \ INT _ {\ mathscr {X} 1} {\左(X \右)DX} $最小値A(Aは代数1.27です)。

    左次いで、すべてのその$のA \(X \右)<0 $ xは$ \ mathscr {X} 1 $に割り当てられている、式を最小限に抑えることができるようになっています。

4、ページ35

4.1 1.33式のプロセスを簡素化

     $ - \ FRAC {1} {2} \左(X-の\ミ​​ュー_1 \右)^ TC ^ { - 1} \左(X-の\ミ​​ュー_1 \右)+ \ FRAC {1} {2} \左(X- \ MU _2 \右)^ TC ^ { - 1} \左(X- \ MU _2 \右)$

    = $ - \ FRAC {1} {2} X ^ TC ^ { - 1} X + \ FRAC {1} {2} X ^ TC ^ { - 1} \ミュー_1 + \ FRAC {1} {2} \ミュー_1 ^ TC ^ { - 1} X-の\ FRAC {1} {2} \ミュー_1 ^ TC ^ { - 1} \ミュー_1 $

       $ \ \、+ \ FRAC {1} {2} X ^ TC ^ { - 1} X- \ FRAC {1} {2} X ^ TC ^ { - 1} _2- MU \ \ FRAC {1} { 2} \ミュー_2 ^ TC ^ { - 1} X + \ FRAC {1} {2} \ミュー_2 ^ TC ^ { - 1} \ミュー_2 $

    = $ \ \ \ FRAC {1} {2} X ^ TC ^ { - 1} \左(\ MU _1- \ミュー_2 \右)+ \ FRAC {1} {2} \左(\ MU _1 ^ T- \ MU _2 ^ T \右)C ^ { - 1}のX $

       $ + \ FRAC {1} {2} \左(\ \ \ミュー_2 ^ TC ^ { - 1}ムー_2- \ミュー\ _1 ^ TC ^ { - 1} \ミュー_1 \右)$

    = $ \ \ \ FRAC {1} {2} X ^ TC ^ { - 1} \左(\ MU _1- \ミュー_2 \右)+ \ FRAC {1} {2} \左(\ MU _1 - \ムー_2 \右)^ TC ^ { - 1} Xの$

       $ + \ FRAC {1} {2} \左(\ \ \ミュー_2 ^ TC ^ { - 1}ムー_2- \ミュー\ _1 ^ TC ^ { - 1} \ミュー_1 \右)$

    X、C、\ミューので$ \ _1、\ムー_2 $は、1次元ベクトルであり、一次元のベクトル次元ベクトルX =定数

    $ \従ってX ^ TC ^ { - 1} \左(\ MU _1- \ミュー_2 \右)= \左(\ MU _1- \ミュー_2 \右)^ TC ^ { - 1}のX $

    従って$式= $ \ \ \左原$ \(\ MU _1- \ミュー_2 \右)^ TC ^ { - 1} X + \ FRAC {1} {2} \左(\ \ \ MU _2 ^ TC ^ { - 1} \ムー_2- \ミュー_1 ^ TC ^ { - 1} \ミュー_1 \右)$

5、ページ37

実験5.1のために必要なセンサパラメータ:$ \ベータ= 50 $?

    入力ベクトルの最大ユークリッドノルム領域10は大きな円の半径であり、

    = 10 ^ 2 = 100 $だから、$ \ベータ版。

存在しない原稿に記載されている「重みベクトルサイズm = 20」の中国語バージョン5.2は、それを無視することができます。

6、隔月コンピュータモデル実験

   以下のオープンソースを参照してください。

   (3段階の収束の繰り返しが、私のコードは数百フィートの周りに収束する必要があり、

入力ベクトルはランダムに生成されるので、ステップの収束数は、顔を見てなければならないが、幸いにスナップすることができ

)を生成し、データを分析

   https://gitee.com/none_of_useless/nnalm

   アイデア:

   ①パーセプトロンを作成します。入力ベクトル及び初期重量を受け、重み値の出力が収束します。

   ②は、隔月モデルを作成し、トレーニングや検証データを生成します。

  

おすすめ

転載: www.cnblogs.com/smple-to-bottom/p/11716987.html