1.ニューラルネットワークとは何ですか?
(1)レート予測モデルⅠ:
ニューラルネットワーク:サイズx - > O - >価格のy
ReLU機能(整流リニアユニットリニア補正手段は):マイナス表示されない価格を避けるために、線形関数を修正します。
(2)レートの予測モデルⅡ:
そのニューラルネットワーク:
2、バイナリ分類(バイナリ分類)。
例えば、猫の写真を識別するために、
①決定:猫ならば、Y = 1;それはネコである場合、Yは= 0。
②画像サイズ:64×64、デジタル表現:3 64×64マトリックス、赤、緑、青のそれぞれの強度値。
③ベクターのサンプルx長さ:N- X = 64 * 64 = 12288 * 3。
④訓練セット:{(X (1)、Y (1) )、(X (2)、Y (2) )、...、(X (M)、Y (M))}。
⑤トレーニングセットの数:Mの列車は、テストの数を設定は:m テスト。
⑥行列X:列がM、各列は、試料Xを表し(I)を。
⑦ベクトルY:長さがmです。
3、ロジスティック回帰(ロジスティック回帰)。
(1)問題定義:
すなわち、xで、確率猫の写真、y ^が値[0、1] | X与え、^ = P(X、Y = 1)は、yを見つけます。
(2)ソリューション:
与えられたパラメータW(N- Xの ベクトルの長さ)、パラメータB(定数)。
^ = W出力Y T X + B(すなわちBθは0、すなわちW、θ 1〜θはNX)。
しかし、範囲外のような出力値の確率は[0、1]と無理。
シグモイド関数を用いて、ベクトルX Xに追加された0量子化シグモイドを計算する、1 = ^ Y(W T X + B)=シグモイド(θ T限界値のx)は、確率[0、1]。
前記シグモイド(Z)= 1 /(1 + E ^( - Z))。
問題へ:Yよう^こと未知パラメータw及びB、(I)及びY (I)が類似しています。
4、費用関数(費用関数):
損失/ Error関数(損失関数):
ロジスティック回帰での機能の喪失:
Y = 1の場合、Lは= - (y ^)をログ、Y ^大きいが望ましい; Y = 0、L =ログ(1 - y ^)と、Y ^は望ましい小さいです。
コスト関数:
J(B、W)を最小にするように、未知パラメータw及びb:に問題。
5、図誘導体計算計算:
チェーンルールやバックプロパゲーションを体験してください:
DJ / DV = 3。
DV / DA = 1、DJ / D = DJ / DV * DV / D = 3。
DV /デュ= 1、DJ /デュ= D / DV * DV /デュ= 3。
あなた/ DB = 2、DJ /デシベル= D /デュ・デュ/ DB = 6;
あなた/ DC = 3、DJ / DC = D /デュ・デュ/ DC =第九
図6に示すように、勾配降下(勾配下降):
(1)勾配降下手順:
(2)2つの特徴量が、単一のサンプルの場合を含みます。
"da" = dL/da = -y/a + (1-y)/(1-a)
"dz" = dL/dz = dL/da * da/dz = [-y/a + (1-y)/(1-a)] * a(1-a) = a-y
"dw1" = dL/dw1 = dL/dz * dz/dw1 = (a-y)*x1
"dw2" = dL/dw2 = dL/dz * dz/dw2 = (a-y)*x2
"db" = dL/db = dL/dz * dz/db = (a-y)*1 = a-y
梯度下降流程(一次梯度更新):
w1 = w1 - α*dw1 = w1 - α*(a-y)*x1
w2 = w2 - α*dw2 = w2 - α*(a-y)*x2
b = b - α*db = b - α*(a-y)
(3)含有2个特征量,m 个样本的情况:
梯度下降过程:
Repeat{
w1 = w1 - α/m*∑dw1(i) = w1 - α/m*∑(a-y)*x1(i)
w2 = w2 - α/m*∑dw2(i) = w2 - α/m*∑(a-y)*x2(i)
b = b - α/m*∑db(i) = b - α/m*∑(a-y)
}
7、向量化:
循环计算:效率低
向量化计算:效率高