Machine Learning Andrew Ng -6. Logistic Regression

6.1 Classification

预测变量y是离散值情况下的分类问题

Classification

  • Email : Spam / Not Spam?
  • On-line Transactions : Fraudulent (Yes / No)?
  • Tumor : Malignant / Benign ?

在这里插入图片描述

Linear regression 可能拟合出的曲线worked well
在这里插入图片描述

但是,当我们在training set中多加一个实例,就会发现Linear regression 所拟合出来的直线not often a good idea

在这里插入图片描述

所以,不推荐将Linear regression 用于 classification problems

在这里插入图片描述

因此我们引入Logistic regression

Although Logistic regression 名称中有regression, 但实际上这是一个用来处理classification 分类问题的算法

6.2 Hypothesis Representation (假设表示)

在这里插入图片描述
在这里插入图片描述

6.3 Decision boundary (决策边界)

在这里插入图片描述

一旦我们有了 θ 0 , θ 1 , θ 2 \theta_0, \theta_1, \theta_2 , 我们就有了确定的Decision boundary

在这里插入图片描述
在这里插入图片描述
决策边界不是训练集的属性,而是假设本身及其参数的属性,只要给定了参数向量 θ \theta , 决策边界就确定了

我们用训练集来拟合参数 θ \theta , 而不是用训练集来定义的决策边界

6.4 Cost function

如何拟合参数 θ \theta ?

在这里插入图片描述
在这里插入图片描述
如果仍使用Linear regression 的 cost function, we find that J ( θ ) J(\theta) is a non-convex function ,so 我们要 look up a new cost function, 这样在使用gradient descent 时可以保证只有一个局部最小值

在这里插入图片描述
如果 y = 1 h θ ( x ) = 1 y = 1, h_{\theta}(x) = 1 , (即 y = 1 y = 1 的概率是1), 则 c o s t = 0 cost = 0 , 反之, h θ ( x ) 0 h_{\theta}(x) \to 0 ,(即 y = 1 y = 1 的概率是0), 则 c o s t cost \to \infty (因为此时 y = 1 y = 1 ).

y = 0 y = 0 同理。

在这里插入图片描述
在这里插入图片描述

6.5 Simplified cost function and gradient descent

在这里插入图片描述
在这里插入图片描述
最小化代价函数的方法是使用梯度下降法

在这里插入图片描述

6.6 Advanced optimization

高级优化方法

在这里插入图片描述

Conjugate gradient 共轭梯度法

BFGS, L-BFGS都是拟牛顿法的一种

在这里插入图片描述
在这里插入图片描述

6.7 Multi-class classification : One-vs-all (多类别分类问题)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
将其分成两个独立的二元分类问题,创建一个新的伪训练集,其中类别2和类别3设定为负类,类别1设定为正类。我们要拟合一个分类器,称其为 h θ ( 1 ) ( x ) h_{\theta}^{(1)}(x) .

然后, 我们对类别2进行同样的处理,拟合第二个逻辑回归分类器,称其为 h θ ( 2 ) ( x ) h_{\theta}^{(2)}(x) . 对类别3进行同样的处理,拟合第三个逻辑回归分类器,称其为 h θ ( 3 ) ( x ) h_{\theta}^{(3)}(x) .

在这里插入图片描述

发布了44 篇原创文章 · 获赞 0 · 访问量 1348

猜你喜欢

转载自blog.csdn.net/qq_41664688/article/details/104049401