REF: 深い19の基本的な導入の機械学習アルゴリズム、ニューラルネットワークNNを学習
- 成分:入力層(入力層)、隠れ層(中間層)、出力層(出力層)
- 単位(ユニット)の組成(円)によって各
- 例としては、入力層の特徴ベクトルの訓練セットからインポートされています
- 右の接続ノード量(重量)受信レベルの後、出力は次の層、入力層であります
- 隠れ層の数は任意で、入力層の層を有する層、出力層であります
- 各ユニットはまた、生物学的起源の観点から定義ニューラルノードと呼ぶことができます
- ニューラルネットワークの2つの以上の層(不入力層)
- 加重層、および非線形変換出力方程式を合計
- 隠れ層の十分な数の(隠れ層)及び訓練の十分に大きな集合がある場合、多層フォワードニューラルネットワークとして、理論的に、我々は、任意の式をシミュレートすることができ
ニューラルネットワークアーキテクチャの設計
- ニューラルネットワークのトレーニングデータを使用する前に、ニューラルネットワークは、層の数、及び各ユニットの数を決定しなければなりません
- 特徴ベクトルは入力層に渡されるとき、典型的には(学習プロセスを加速するために)0と1の間(正規化)を正規化します
- 離散変数は、特徴部の入力値の対応する値のそれぞれに符号化することが可能に割り当てることができます
- たとえば、次の特徴値は3つの値をとることができる(A0は、A1、A2)、入力部3は、Aを表すために使用することができます
- A = A0場合、値は0にユニット1、他のセットを取るA0の代表です。
- したがって、他= A1を、次いで、代表値が取られるA1ユニット1は、0を取る場合
- ニューラルネットワークは、分類のために使用することができる(分類)の問題は回帰(回帰)問題を解決することができます
- それはクラス2である場合、分類のために、出力ユニットは、で表すことができる(0と1クラス2を表す)
二つ以上のクラスの場合、各クラスは、出力部を表すと、
出力層のセルの数はカテゴリの数にほぼ等しくなるように - 明確なルールは、隠された層の最高数を設計しないように
テストし、実験的なテストとエラー、および精度を向上させるために
- それはクラス2である場合、分類のために、出力ユニットは、で表すことができる(0と1クラス2を表す)
- 交差検証(バリデーション4クロス)
K倍クロスバリデーションは、
3点に分割し
2つのトレーニング、最初のテストの後、最初に
二度目、双方は、中間テスト従順な
2つのトレーニング前に、三回、そして最後にテスト - バックプロパゲーションアルゴリズム
- 反復によって設定された訓練のインスタンスに対処するために、
- 真値(目標値)から(予測値)後のニューラルネットワークの入力層の予測値との比較
- 逆方向(出力層から=>隠れ層=>入力層)は、各重み接続量(重量)を更新するエラー(誤差)を最小にすること
- アルゴリズムの詳細
- 入力:D:データセット、L個の学習率(学習率)、フォワード多層ニューラルネットワーク
- 出力:訓練されたニューラルネットワーク(訓練されたニューラルネットワーク)
- 重み(ウェイト)とバイアス(偏り)初期化:-1と1の間のランダムな初期化、または-0.5と0.5の間、各セルはバイアスを有します
- 各トレーニング例えばXは、次の手順を実行します。
- フォワード入力層から送信
- $$ I_ {J} = \ sum_ {I} \ omega_ {IJ} O_ {I} + \ Theta_ {J} $$