第二週:ニューラルネットワークプログラミングの基礎
2.1二分
トレーニングセットに対処する方法
前方のスプレッドは、前に一時停止します。懸濁し、逆伝播逆
ニューラルネットワークトレーニングプロセスを:伝播、カウンタ伝搬フロント
ロジスティック回帰:バイナリ
イメージ:3つの行列:RGBの画素強度値
の特徴ベクトルに全ての画素値。
X、Y、(x、y)は、X、Y、Mtrain、MTEST
X.shape、Y.shape
2.2ロジスティック回帰
2.3ロジスティック回帰コスト関数
損失関数:誤差関数:L
予測と実際の値に近いかを確認するには:
- 一般:予測と実際の値は差や二乗差の半分を乗
- ロジスティック回帰:ロジスティック回帰固有の損失関数。目標は、最適化の凸最適化、唯一のより多くの局所最適にはないため、勾配降下は、グローバルな最適解を見つけることができません。
サンプル数:
- A:損失関数
- 複数:コスト関数は、コスト関数は、パラメータの総コストであります
勾配降下2.4
2.5デリバティブ
パイロット2.6の数の例
図2.7計算
逆方向伝送:勾配又は誘導体算出する
算出マップを:計算処理について説明します
2.8図の誘導体を用いて計算しました。
2.9勾配降下ロジスティック回帰。(式導出)
2.10メートルのサンプルの勾配は減少します。(式導出)
2.11ベクトル化
非ベクトル化:ループのための
ベクトル:(X、W)np.dot + B
定量化する例2.12
numpyのライブラリを
定量化ロジックに2.13復帰。(未完)
2.14の量子化された出力ロジスティック回帰勾配(未完)
放送中2.15パイソン
pythonのnumpyのベクトル命令で2.16