第五章では、学習機械学習勾配降下は、コスト関数の最小値を求めてまとめたもの

最小の費用関数を求めています

勾配降下

線形回帰方程式を解く前に、コスト関数の最小値は、我々は反復θの値に次の式を使用する場合。
反復式
私たちは、コスト関数正則後、私たちは動かなかったθ0θ1を、罰するために始めていることを知っています。だから我々は、反復方程式から分離θます。次の反復式を取得し
分離した後、
、実際には変更はありません、少なくともだけ方程式θ0の計算を分離します。次に、開始値が1からθJ、N対私たちはセクション正則目的関数を見つけるために、このメソッドを使用する場合は、我々はθjを方程式に1を追加する必要があります添加後、図:
変更されたコスト関数
この式は何形状、得るとなる:
変形した後、
1 [アルファ] - ロンダ/ m)が1未満であり、αは((ロンダ/ mは)非常に小さい数である1-α*ロンダ/ m)の150にほぼ等しい**時には
我々は、更新θjを約150倍になると少しだけ小さく見ることができます。
第二の偏微分合計について、あなたは私が書いた別の記事を表示することができます。

https://blog.csdn.net/Ace_bb/article/details/103996097

正規方程式

私はデータのセットが存在すると仮定した、n個の変数、サンプルのM個の組が存在します。
図に示すように、それによって全てのデータサンプルは、寸法XのM *(N + 1)行列を構成します。予測値y M次元ベクトルを構成する各サンプルのために。以下に示すように:
正規方程式1
私たちの目的は、θが最小値を取得するために、コスト関数J(θ)を求めることでありθはベクトルであり、ロンダ> 0を使用することができる、以下の式を計算するために直接使用することができます。

正規方程式
中間行列は、(N + 1)*は(N + 1) 次元の行列は、最初の対角要素は0であり、全て1、すべてゼロで非対角要素

場合M <N、Xは、行列X不可逆の転置を乗じた結果をもたらし得ます。したがって、M <Nではない時間の量によって

------------------------------
アンドリュー・ウの先生からネットワークレッスン画像:
https://www.bilibili.com/video/ av9912938?p = 43

公開された50元の記事 ウォンの賞賛3 ビュー5175

おすすめ

転載: blog.csdn.net/Ace_bb/article/details/104073472