机器学习中的回归(Regression)与分类(classification)问题

原文地址:https://blog.csdn.net/wspba/article/details/61927105

分类模型和回归模型本质一样,分类模型是将回归模型的输出离散化。

1、Logistic Regression 和 Linear Regression:

  • Linear Regression: 输出一个标量wx+b,这个值是连续值,所以可以用来处理回归问题。
  • Logistic Regression:把上面的wx+b通过sigmoid函数映射到(0,1)上,并划分一个阈值,大于阈值的分为一类,小于等于分为另一类,可以用来处理二分类问题。
  • 更进一步:对于N分类问题,则是先得到N组w值不同的wx+b,然后归一化,比如用softmax函数,最后变成N个类上的概率,可以处理多分类问题。

2、Support Vector Regression 和 Support Vector Machine:

  • SVR:输出wx+b。即某个样本点到分类面的距离,是连续值,所以是回归模型。
  • SVM:把这个距离用sign()函数作用,距离为正(在超平面一侧)的样本点是一类,为负的是另一类,所以是分类模型。

3、神经网络用于分类和回归:

  • 用于回归:最后一层有m个神经元,每个神经元输出一个标量,m个神经元的输出可以看做向量v,现全部连到一个神经元上,则这个神经元输出wx+b,是一个连续值,可以处理回归问题,跟上面的Linear Regression思想一样。
  • 用于N分类:现在这m个神经元最后连接到N个神经元,就有N组不同的wv+b,同理可以归一化(比如用softmax)变成N个类上的概率。                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                     

猜你喜欢

转载自blog.csdn.net/qq_37249672/article/details/82143052