ニューラルネットワークと深い学習(a)は、ニューラルネットワークインフラストラクチャ

1.ニューラルネットワークとは何ですか?

(1)レート予測モデルⅠ:

 

 ニューラルネットワーク:サイズx - > O - >価格のy

ReLU機能(整流リニアユニットリニア補正手段は):マイナス表示されない価格を避けるために、線形関数を修正します。

(2)レートの予測モデルⅡ:

そのニューラルネットワーク:

 

2、バイナリ分類(バイナリ分類)。

例えば、猫の写真を識別するために、

①決定:猫ならば、Y = 1;それはネコである場合、Yは= 0。

②画像サイズ:64×64、デジタル表現:3 64×64マトリックス、赤、緑、青のそれぞれの強度値。

③ベクターのサンプルx長さ:N- X = 64 * 64 = 12288 * 3。

④訓練セット:{(X (1)、Y (1) )、(X (2)、Y (2) )、...、(X (M)、Y (M))}。

⑤トレーニングセットの数:Mの列車は、テストの数を設定は:m テスト

⑥行列X:列がM、各列は、試料Xを表し(I)を

⑦ベクトルY:長さがmです。

 

3、ロジスティック回帰(ロジスティック回帰)。

(1)問題定義:

すなわち、xで、確率猫の写真、y ^が値[0、1] | X与え、^ = P(X、Y = 1)は、yを見つけます。

(2)ソリューション:

与えられたパラメータW(N- Xの  ベクトルの長さ)、パラメータB(定数)。

^ = W出力Y T X + B(すなわちBθは0、すなわちW、θ 1〜θはNX)。

しかし、範囲外のような出力値の確率は[0、1]と無理。

シグモイド関数を用いて、ベクトルX Xに追加された0量子化シグモイドを計算する、1 = ^ Y(W T X + B)=シグモイド(θ T限界値のx)は、確率[0、1]。

前記シグモイド(Z)= 1 /(1 + E ^( - Z))。

問題へ:Yよう^こと未知パラメータw及びB、(I)及びY (I)が類似しています。

 

4、費用関数(費用関数):

損失/ Error関数(損失関数):

ロジスティック回帰での機能の喪失:

Y = 1の場合、Lは= - (y ^)をログ、Y ^大きいが望ましい; Y = 0、L =ログ(1 - y ^)と、Y ^は望ましい小さいです。

コスト関数:

J(B、W)を最小にするように、未知パラメータw及びb:に問題。

 

5、図誘導体計算計算:

チェーンルールやバックプロパゲーションを体験してください:

DJ / DV = 3。

DV / DA = 1、DJ / D = DJ / DV * DV / D = 3。

DV /デュ= 1、DJ /デュ= D / DV * DV /デュ= 3。

あなた/ DB = 2、DJ /デシベル= D /デュ・デュ/ DB = 6;

あなた/ DC = 3、DJ / DC = D /デュ・デュ/ DC =第九

 

図6に示すように、勾配降下(勾配下降):

(1)勾配降下手順:

(2)2つの特徴量が、単一のサンプルの場合を含みます。

"da" = dL/da = -y/a + (1-y)/(1-a)

"dz" = dL/dz = dL/da * da/dz = [-y/a + (1-y)/(1-a)] * a(1-a) = a-y

"dw1" = dL/dw1 = dL/dz * dz/dw1 = (a-y)*x1 

"dw2" = dL/dw2 = dL/dz * dz/dw2 = (a-y)*x2

"db" = dL/db = dL/dz * dz/db = (a-y)*1 = a-y

梯度下降流程(一次梯度更新):

w1 = w1 - α*dw1 = w1 - α*(a-y)*x1

w2 = w2 - α*dw2 = w2 - α*(a-y)*x2

b = b - α*db = b - α*(a-y)

(3)含有2个特征量,m 个样本的情况:

梯度下降过程:

Repeat{

  w1 = w1 - α/m*∑dw1(i) = w1 - α/m*∑(a-y)*x1(i)

  w2 = w2 - α/m*∑dw2(i) = w2 - α/m*∑(a-y)*x2(i)

  b = b - α/m*∑db(i) = b - α/m*∑(a-y)

}

 

7、向量化:

循环计算:效率低

向量化计算:效率高

おすすめ

転載: www.cnblogs.com/orangecyh/p/11778149.html