機械学習ノート(b)は、複数の線形回帰

複数の機能(マルチ特徴量)

図1に示すように、文字が定義されています。

 

図2に示すように、多変量線形回帰(線形回帰)。

3、費用関数:

 

4、勾配降下アルゴリズム:

 

勾配降下技術--Featureスケーリング(特徴スケーリング)

図1は、定義:-1と1の間の各特徴量をスケーリングします。(例えば、0~3などの近距離、-2 0.5などへ付)

 

2、役割:勾配降下(近いラウンドプロファイル)時の収束を容易にします。

 

3、スケーリング方法:

(1)直接最大値で割りました。

(2)平均正規化(正規化平均)の範囲で割った平均値を減算する(即ち、最大値 - 最小値)

 

勾配降下スキルII --Learningレート(学習率)

 

:α= 0.1 B:α= 0.01(αが小さいと、収束速度)C:= 1α(αは発散、大きすぎます)

 

多項式回帰(多項式回帰)

図1は、例えば:異なる順序の用語は、そのようなX1の領域として特徴値、異なる特徴値に変換²面積値X2を特徴とする、³面積値X3を特徴付けることができます。複数の線形回帰への多項式回帰問題。

 

おすすめ

転載: www.cnblogs.com/orangecyh/p/11621656.html