このシリーズは、スタンフォード大学のアンドリュー・ウで次のディレクトリを注意することは、CS229仕上げ機械学習コースの注意事項:
(A)線形回帰
(B)ロジスティック回帰
(C)ニューラルネットワーク
(IV)の分析と最適化アルゴリズム
(E)サポートベクターマシン
(六)K-手段
(VII)の機能低下
(VIII)の異常検出
(1×)推薦システム
(J)大規模な機械学習
章ロジスティック回帰
そうロジスティック回帰0/1分類の導入を完了するために、0/1分類が困難で処理するために線形回帰を使用し、また、論理ワードを表す(1)及び(0)。
、シグモイド関数予測
ロジスティック回帰では、予測関数は、次のように定義されます。
G(z)はロジック機能も知られ、シグモイド関数と呼ばれ
第二に、決定境界
決定境界は、プロパティの関数Hθ(X)よりもむしろ、トレーニングセットのプロパティを予測します。これは、彼らがクラス間の境界を「描く」だけHθ(x)を作ることができるためであるが、唯一のトレーニングセットを訓練し、パラメータを調整します。
- リニア決定境界
- 非線形決定境界
第二に、予測コスト関数
分類タスクのために、私たちは繰り返し繰り返し、より正確な予測を行うことが決定境界を回し、つまり、パラメータθを調整するものです。あなたが最小のコスト関数を見つけたとき、あなたが最も正確な予測を行うことができ、θ値の予測精度を評価するために使用され、我々はコスト関数J(θ)を持っていると仮定します。
典型的には、低コスト関数が最小値、容易にその最小値、より容易に最も正確な予測を含みます。 - >グローバル最小値と極小値
ロジスティック回帰コスト関数は次のように定義されています。
第三に、コスト関数を最小化します
SGDとは、2つの方法BGDを使用しています
第四に、正則
フィッティングは、問題を解決しました。
1)特徴の数を減らします
2)滑らかな曲線
弱の高次係数(弱め蛇行曲線)、(不利)ペナルティパラメータθと呼びます。 - 定期的な
•線形回帰正則:
パラメータλである場合には、主に二つのことを実行します。
- データへの良好なフィット感を確保するために、
- 保证 θ 足够小,避免过拟合问题。(λ 越大,要使 J(θ) 变小,惩罚力度就要变大,这样 θ 会被惩罚得越惨(越小),即要避免过拟合,我们显然应当增大 λ 的值。)
· 逻辑回归中的正则化
五、多分类问题
通常采用 One-vs-All,亦称 One-vs-the Rest 方法来实现多分类,其将多分类问题转化为了多次二分类问题。
假定完成 K 个分类,One-vs-All 的执行过程如下:
- 轮流选中某一类型 i ,将其视为正样本,即 “1” 分类,剩下样本都看做是负样本,即 “0” 分类。
- 训练逻辑回归模型得到参数 θ(1),θ(2),...,θ(K) ,即总共获得了 K−1 个决策边界。
给定输入 x,为确定其分类,需要分别计算 h(k)θ(x),k=1,...,K ,h(k)θ(x) 越趋近于1,x 越接近是第k类: