ディープ学習:最初のコース、ニューラルネットワークと深い学習:第二週、ニューラルネットワークに基づくプログラミング

第二週:ニューラルネットワークプログラミングの基礎
2.1二分

トレーニングセットに対処する方法

前方のスプレッドは、前に一時停止します。懸濁し、逆伝播逆
ニューラルネットワークトレーニングプロセスを:伝播、カウンタ伝搬フロント
ロジスティック回帰:バイナリ
イメージ:3つの行列:RGBの画素強度値
の特徴ベクトルに全ての画素値。

X、Y、(x、y)は、X、Y、Mtrain、MTEST
X.shape、Y.shape


2.2ロジスティック回帰


2.3ロジスティック回帰コスト関数
損失関数:誤差関数:L
予測と実際の値に近いかを確認するには:

  • 一般:予測と実際の値は差や二乗差の半分を乗
  • ロジスティック回帰:ロジスティック回帰固有の損失関数。目標は、最適化の凸最適化、唯一のより多くの局所最適にはないため、勾配降下は、グローバルな最適解を見つけることができません。

サンプル数:

  • A:損失関数
  • 複数:コスト関数は、コスト関数は、パラメータの総コストであります

勾配降下2.4


2.5デリバティブ


パイロット2.6の数の例


図2.7計算

逆方向伝送:勾配又は誘導体算出する
算出マップを:計算処理について説明します


2.8図の誘導体を用いて計算しました。


2.9勾配降下ロジスティック回帰。(式導出)


2.10メートルのサンプルの勾配は減少します。(式導出)


2.11ベクトル化
非ベクトル化:ループのための
ベクトル:(X、W)np.dot + B


定量化する例2.12
numpyのライブラリを


定量化ロジックに2.13復帰。(未完)


2.14の量子化された出力ロジスティック回帰勾配(未完)


放送中2.15パイソン


pythonのnumpyのベクトル命令で2.16

发布了53 篇原创文章 · 获赞 4 · 访问量 8785

おすすめ

転載: blog.csdn.net/lee__7/article/details/102961614