主要な概念のニューラルネットワークを訓練するプロセス - 研究ノート

  • ニューラルネットワークの学習プロセスは3つの段階に分けることができます

出力構造と、前方伝播ニューラルネットワーク1.定義

2.関数を定義し、逆伝搬損失の最適化アルゴリズムを選択します

3.ビルドとトレーニングデータ逆伝搬アルゴリズムの最適化にセッションで繰り返し実行します

神経回路網

ニューロン

ニューロンは次のようにニューラルネットワークのニューロンを構成する最小単位が構成されています。

ニューロンが複数の入力と1つの出力を有し、各ニューロンの入力は出力のいずれか他のニューロンはまた、全体ニューラルネットワークに入ることができます。

すべての単純出力ニューロンは、図加重和に示されている、すなわち、入力ニューロンのすべてのニューロンの入力異なる重みが重みパラメータ(WI)、最適化プロセスは、ニューロンのニューロンパラメータを最適化することです

プロセス。

完全に接続されたニューラルネットワーク

任意の2つのノード間の完全に接続されたニューラルネットワークは、隣接する層に接続されています。

スリー完全に接続されたニューラルネットワーク:

前記物理層からの入力が抽出した特徴ベクトル、隠れ層、より複雑なニューラルネットワーク構造。DNN多層非線形変換による高複雑データ・モデリング・アルゴリズムの集合に基づいていずれかを意味します。

フォワード伝播

順方向伝搬は中間層を介して出力層である最終出力層を得るための演算処理です。

フォワード伝播:

ニューラルネットワークの入力のためのX1及びX2は、ニューロンはWパラメータ、ニューラルネットワーク、接続ノード番号の添え字、現在の体重のエッジ上のW値をラベル付け層を表します。

そう、ニューラルネットワークの入力ニューロンの出力以来と加重

A11:

そして、:

アクティベーション機能

上記関係モデルは、単純な線形モデルは、入力と出力の線形モデルを満たしています

WI、b∈Rはモデルのパラメータ、入力xとyは、二次元座標系の直線を形成する唯一の時間です。入力nは平面のn + 1次元空間である場合。

しかし、現実の世界では、問題のほとんどは、線形セグメンテーションではありません。私たちは、線形モデルを使用する場合は、出力信号は、単純な線形関数となります。

私たちは、私たちが理解し、データの他の複合型から学ぶに貢献の非線形関数の助けを必要とし、この関数は機能を活性化することです。

への線形活性化関数

非線形関数を介して各ニューロンの出力した場合、全体のニューラルネットワークモデルは、もはや線形ではありません。

ここで、yは、線形活性化関数による処理Aです。

損失関数

教師付き学習では、ニューラルネットワークの出力と期待される出力との間の差の大きさを測定する必要があります。この誤差関数が量子化出力後にネットワークと実際の結果との間の矛盾の現在の程度を反映することができる必要がある、すなわち、より大きな関数値が不正確な予測モデルの結果を反映したと言うことです。この損失関数は誤差関数です。

ニューラルネットワークモデルと最適化目標の効果は、機能の喪失によって定義されます。

教師付き学習に関する考察が回答ラベリングデータ・セットを知られ、モデルの結果は、本当の答えに近いとして与えられています。ニューラルネットワークのパラメータを調整することにより
、モデルが未知のサンプルを予測する能力を提供するように、トレーニングデータに合うように。

バックプロパゲーションアルゴリズム

バックプロパゲーションアルゴリズムは反復プロセス、各反復の始まりを実装して、順方向伝搬アルゴリズムによって、トレーニングデータの最初の部分を取ります

予測ニューラルネットワークを取得します。トレーニングデータは、正しい答えを持っているので、予測された結果と正解間の差を計算することが可能です。

この差に基づいて、対応する逆伝搬ニューラルネットワークアルゴリズムのパラメータの値は、そのように本当の答えと近いが更新されます。

フローチャート伝播アルゴリズムを逆:

人気の理解は、私たちが跳ねる教会を果たしたということです。

私たちは、何の風が他の外部要因に影響を与えないと仮定すると、ターゲットをヒットする角度と強さを調整することで砲弾を発射しました。

彼は我々がゴール前での戦いを初めて起動したときを逃した後、我々は適切に角度の下方修正を強化します二回目は、後に我々は右の強度と角度を把握します数回繰り返します。

  • すべてのヒットポイントと得失点差では、損失を表現するための機能を使用することができ、エラーです。

  • 図打撃位置のそれぞれの出発点後、次いでこの方法の角度と強度を調整することは、バックプロパゲーションです。

勾配降下アルゴリズム

単一のパラメータ値を最適化するために主に降下アルゴリズムステップ、逆伝播アルゴリズムは、すべてのパラメータに勾配降下アルゴリズムを与えるための効率的な方法です。

おすすめ

転載: www.cnblogs.com/chenjy1225/p/11563482.html