1、線形回帰回帰コスト関数勾配降下

 

図1に示すように、リターンは、一般に人類が平均高さを有すること、ダーウィンのいとこ発見されました。背が高いから生まれた子は、短い生まれ高い、短い子です。しかし、特に高い子供たちの長い平均高さ、にそれらのほとんど、彼らの子供たちは高いが、しばしば自分自身よりも短くなります。特に短い人々は、彼らが短い生まれた子供の一部になりますが、彼らの両親よりも高くなり、彼らはこの傾向を持っています。これは、いとこパイプリターンと呼ばれています。

図2に示すように、線形回帰は単項関数従属変数、1つの独立変数に相当することをいいます。飛行機のポイントは、システムにいくつかのハッシュ座標とき、私たちはしばしば、彼らの回帰直線に合わせて直線を見つけたいです。我々は、このラインを担当している線形回帰と呼ばれています

 

 

この関数は、想定され、我々が尋ねるこの機能である私たちは、線形回帰関数の値を決定し、この値を決定します 

 

図3に示すように、コスト関数は、に等しいです。

 

もしことは明らかである値を作ることができる私たちが望む線形回帰関数である最小値を。

 

4、勾配降下

学習の*変数量 - 誘導体の現在の値となるよう、この偏微分値を変数と乗算され、二つの変数のための偏微分費用関数を求めています。勾配降下法の最小値が望まれています。このポイントパラメータで

 

 我々は2つの値は、線形回帰式である必要があります。変数を学ぶことが唯一の座標系とより多くの何もないで、現在の変数の傾きの変化方向及び移動の大きさの導出を満たすためにそれを勉強する座標を得ることは非常に神秘的であるとは思いません

 

 

それが発散に関するものではありません場合は - しかし、最悪の場合には、最大コスト関数をフィッティングするこの時点で+ピークを求めています

もう一つの方法はなぜいないデリバティブの極端な値の二倍少し微積分

 

おすすめ

転載: www.cnblogs.com/wholeworld/p/11874674.html