ニューラルネットワークと機械学習研究ノートバージョン3
- 初心者のノートには、疑問のすべての種類のレコードは、時間的な思考を過ごします
第一章ローゼンブラットパーセプトロン
1、ページ32
なぜ停滞1.1で間違ったシンボルにおけるn番目の反復、シンボルのn + 1回の内積の反復が正しいでしょうか?
已知$ \イータは\ X \左> \左を(nは右\)(nは右\)X ^ T \は左(N \右)左| $····························| W ^ T \はX \(N \右)\右から左(nは右\)左··························①
(1)(右1 \)\で\ varphi \左(N右\)$を$のXの\左を仮定し、即ち、正しい結果が内積0より大きい:$のW ^ {\開始{アレイ} {C} T \\ \端{アレイ}} \左(N右\)X \左> 0 $(N右\)。
シンボル誤差の範囲内で$ \累積番目の反復$ N理由
左$ \したがってW ^ {\開始{アレイ} {C} T \\\端{アレイ}} \(N右\)X \左(N右\)<0 $
$ \ X \は(N右\)\で\ varphi \左(1 \右)\ \ \ランドW ^ {\開始{アレイ} {C} T \\\端{アレイ}} \左を左ため<0 $(nは\右)(nは右\)X \左
したがって、左\ W $ \(N + 1 \右)= W \はなるように、(nは右\)X \(nは右\)左$ //プラス正の数+ \イータは\左(nは右\)左体積増加(P30式1.6)次の
$ \従って^ W T \左(N + 1 \右)= W ^ T \は+ \ ETA \左X ^ T \(N右\)左(N右\)$(N \右)左
$ \従って^ W T \左(N + 1 \右)X \左= W ^ T \(N右\)左(N右\)X \(N \右)左+ \ ETA \左(N \右)X ^ T \は(nはX \(N \右)$左)右\左
①\ RIGHTARROW \エータは\左ので又$ \(X \左> -W ^ T \は左(nは右\)(nは\右)(nは右\)X ^ T \は左(nは右\)X \左N \右)$
$ \従ってT \は(N + 1 \右)X \左(N右\)> 0 $を左^ W
つまり、N + 1反復記号の製品を正しく。
(2)場合、「$ X \は(N右\)左同じ理由\で\ varphi \左(2 \右)\ランドW ^ {\開始{アレイ} {C} T \\\端{アレイ}左はX \左(N右\)場合} \> 0 $」、正しくN + 1つの反復シンボルの積を(N右\)。
2、P。33
約2.1 "C IJ "
CのIJ人気の説明:$ X \で\ varphi \左(私は\右)$ $を危険にさらして、誤って分類された\ varphi \(J \左右)$ 。
3、34ページ
3.1なぜC11 <C21&C22 <C12?
誤分類のより大きなリスクのため。
3.2最適な分類ポリシーの起源。
最適な分類の戦略について、すなわち:最小のリスクを実現しています。
したがって、最適な分類ように$ \ INT _ {\ mathscr {X} 1} {\左(X \右)DX} $最小値A(Aは代数1.27です)。
左次いで、すべてのその$のA \(X \右)<0 $ xは$ \ mathscr {X} 1 $に割り当てられている、式を最小限に抑えることができるようになっています。
4、ページ35
4.1 1.33式のプロセスを簡素化
$ - \ FRAC {1} {2} \左(X-の\ミュー_1 \右)^ TC ^ { - 1} \左(X-の\ミュー_1 \右)+ \ FRAC {1} {2} \左(X- \ MU _2 \右)^ TC ^ { - 1} \左(X- \ MU _2 \右)$
= $ - \ FRAC {1} {2} X ^ TC ^ { - 1} X + \ FRAC {1} {2} X ^ TC ^ { - 1} \ミュー_1 + \ FRAC {1} {2} \ミュー_1 ^ TC ^ { - 1} X-の\ FRAC {1} {2} \ミュー_1 ^ TC ^ { - 1} \ミュー_1 $
$ \ \、+ \ FRAC {1} {2} X ^ TC ^ { - 1} X- \ FRAC {1} {2} X ^ TC ^ { - 1} _2- MU \ \ FRAC {1} { 2} \ミュー_2 ^ TC ^ { - 1} X + \ FRAC {1} {2} \ミュー_2 ^ TC ^ { - 1} \ミュー_2 $
= $ \ \ \ FRAC {1} {2} X ^ TC ^ { - 1} \左(\ MU _1- \ミュー_2 \右)+ \ FRAC {1} {2} \左(\ MU _1 ^ T- \ MU _2 ^ T \右)C ^ { - 1}のX $
$ + \ FRAC {1} {2} \左(\ \ \ミュー_2 ^ TC ^ { - 1}ムー_2- \ミュー\ _1 ^ TC ^ { - 1} \ミュー_1 \右)$
= $ \ \ \ FRAC {1} {2} X ^ TC ^ { - 1} \左(\ MU _1- \ミュー_2 \右)+ \ FRAC {1} {2} \左(\ MU _1 - \ムー_2 \右)^ TC ^ { - 1} Xの$
$ + \ FRAC {1} {2} \左(\ \ \ミュー_2 ^ TC ^ { - 1}ムー_2- \ミュー\ _1 ^ TC ^ { - 1} \ミュー_1 \右)$
X、C、\ミューので$ \ _1、\ムー_2 $は、1次元ベクトルであり、一次元のベクトル次元ベクトルX =定数
$ \従ってX ^ TC ^ { - 1} \左(\ MU _1- \ミュー_2 \右)= \左(\ MU _1- \ミュー_2 \右)^ TC ^ { - 1}のX $
従って$式= $ \ \ \左原$ \(\ MU _1- \ミュー_2 \右)^ TC ^ { - 1} X + \ FRAC {1} {2} \左(\ \ \ MU _2 ^ TC ^ { - 1} \ムー_2- \ミュー_1 ^ TC ^ { - 1} \ミュー_1 \右)$
5、ページ37
実験5.1のために必要なセンサパラメータ:$ \ベータ= 50 $?
入力ベクトルの最大ユークリッドノルム領域10は大きな円の半径であり、
= 10 ^ 2 = 100 $だから、$ \ベータ版。
存在しない原稿に記載されている「重みベクトルサイズm = 20」の中国語バージョン5.2は、それを無視することができます。
6、隔月コンピュータモデル実験
以下のオープンソースを参照してください。
(3段階の収束の繰り返しが、私のコードは数百フィートの周りに収束する必要があり、
入力ベクトルはランダムに生成されるので、ステップの収束数は、顔を見てなければならないが、幸いにスナップすることができ
)を生成し、データを分析
https://gitee.com/none_of_useless/nnalm
アイデア:
①パーセプトロンを作成します。入力ベクトル及び初期重量を受け、重み値の出力が収束します。
②は、隔月モデルを作成し、トレーニングや検証データを生成します。