回归算法是一种通过最小化预测值与实际结果值之间的差距,而得到输入特征之间的最佳组合方式的一类算法。对于连续值预测有线性回归等,而对于离散值/类别预测,我们也可以把逻辑回归等也视作回归算法的一种。
线性回归与逻辑回归是机器学习中比较基础又很常用的内容。线性回归主要用来解决连续值预测的问题,逻辑回归用来解决分类的问题,输出的属于某个类别的概率,工业界经常会用逻辑回归来做排序。在SVM、GBDT、AdaBoost算法中都有涉及逻辑回归,回归中的损失函数、梯度下降、过拟合等知识点也经常是面试考察的基础问题。
线性回归
根据几组已知数据和拟合函数训练其中未知参数,使得拟合损失值达到最小。然后用所得的拟合函数进行预测。
逻辑回归
和拟合函数训练其中未知参数使得对数似然函数最大。然后用所得的拟合函数进行二分类。
区别
两者都是回归,步骤和原理看起来很相似,到底有什么地方不同呢?
线性回归 | 逻辑回归 | |
目的 | 预测 | 分类 |
未知 | {0,1} | |
函数 | 拟合函数 | 预测函数 |
参数计算方式 | 最小二乘 | 最大似然估计 |