機械学習 - 正規+回帰および分類分析

機械学習 - 正規+回帰および分類分析

この記事では、自身が正則とリターンについての早期の記事サプリメント。記事を書くときに自身がまた、単にマシンを学び始めた当時、多くの知識を理解しているが、要約からある程度の高さを欠いています。このような観点と組み合わせることで、私が読み取った原稿のことは混乱することは容易ではありません。

まず明確にする、すべて使用することができ、特許、回帰と分類のリターンではありません。回帰正則での使用は、リッジ回帰である(L2正則)となげなわ(L1正則)、使用が正則は、カテゴリ内の我々の共通の損失関数(実際には、アプリケーションは、一つの側面があるではほとんど知っていますメイン言及は、直接損失関数に構成され、例えば、定期的なL1上ように構成:IMG、正規構築ようなそれそれのL2:IMGモデルにおいて)、例えばsklearnパラメータの選択は、対応しています。

L1とL2通常のトレードオフとして、あなたはほとんど答え私が知っている、上記の他の回答の一部を見ることができます:

徐建紫

L0ノルム:ベクトル内の非ゼロ要素の数。

L1ノルム(ラッソ正則)ベクトルの各要素の絶対値。

L2ノルム(リッジ回帰):ベクトル角と各要素の平方根。

L0とL1ノルムノルムことを達成することができるパラメータスパースオブジェクトを、しかし硬くL0ノルム最適溶液、最適L1ノルムが凸と同様のL0を解決することが容易であり、これは、広く使用されています。

L2ノルム主な役割は、モデルの汎化能力を改善するためにモデルをオーバーフィット防止するためです。

魏と晋

IMG

青線L1は、L2が赤線であり、明らかに、L1が極値分布のより寛容です。L1ノームなしL2ノーム外れ値の影響を受けにくい、データ入力の損失は明らかに、L1ノルムを使用してあれば、正則損失長期使用L1場合、その後、学んだパラメータがまばらな傾向があり、使用L2ノルムはそのような傾向ではありません。

実際には、データ・サイエンティストQuaro経験、実用化プロセスは、L1のNROMは少し良くL2ノルムが、好ましく用いられるL2ノルムがより良い選択である場合よりも示されました。

実際には、一方の側から、分類および回帰の差がリターンの閾値設定閾値決意が分類されているかどうかに反映します。実際には、彼らが今という理由だけで、ほとんど半ダース、それについて機械学習と深い学習における分類と回帰の問題だと思いますが、このような予測株式など他の分野に及びそうに、分類モデルのように、より重点ターゲットコンピュータビジョンでありますシーンのよう、回帰ネットワーク構造の設計に反映されて両者の違いの多くはまだですが、教師付き学習の文脈の中の単語がある場合、その差は本当に例えば、大きすぎない、この問題はほとんど言った知っています

おすすめ

転載: www.cnblogs.com/jiading/p/12104854.html