机器学习(三)—线性回归、逻辑回归、Softmax回归 的区别

1、什么是回归? 

  是一种监督学习方式,用于预测输入变量和输出变量之间的关系,等价于函数拟合,选择一条函数曲线使其更好的拟合已知数据且更好的预测未知数据。

2、线性回归 

  代价函数(平方误差代价函数,加1/2是为了方便求导): 
  这里写图片描述 
  梯度下降法: 
  这里写图片描述 
  这里写图片描述 
  (1) 批处理梯度下降法:每次对全部训练数据进行求导后更新参数,能求得最优解; 

  (2) 增量梯度下降法:每扫描一个训练样本就更新参数,快,训练集很大时选择。 

  正规方程组求解(The normal equations):直接令代价函数对参数求导为0: 
  这里写图片描述 
  步长(学习率)的选择:过小,迭代次数非常高;过大,越过最小值无法收敛。0.01,0.03,0.1,0.3,1,3,10

  特征值归一化:多维特征时,需要确保特征的取值范围在相同的尺度内计算过程才会收敛,常用方法有(1) (X- mean(X))/std(X);(2) (X - min) / (max - min)。

3、逻辑回归 

  目的:从训练数据特征学习出一个0/1分类模型。 

  预测函数: 
  这里写图片描述 
  优点:计算代价不高,易于理解和实现;缺点:容易欠拟合,分类精度不高 

  观测值的概率:

   这里写图片描述  

  损失代价函数: 
  这里写图片描述

4. Softmax回归模型 

  当多分类问题时,logistic推广为softmax. 

  假设函数: 
  这里写图片描述 
  损失函数: 
  这里写图片描述 
  为了解决softmax回归的参数冗余带来的数值问题,可以加入权重衰减项

5. 过拟合和欠拟合如何产生,如何解决? 

  欠拟合:根本原因是特征维度过少,导致拟合的函数无法满足训练集,误差较大;解决方法:增加特征维度; 

  过拟合:根本原因是特征维度过大,导致拟合的函数完美的经过训练集,但对新数据的预测结果差。解决方法:(1)减少特征维度;(2)正则化,降低参数值。

6、逻辑回归和线性回归区别 

  1)线性回归要求变量服从正态分布,logistic回归对变量分布没有要求。 

  2)线性回归要求因变量是连续性数值变量,而logistic回归要求因变量是分类型变量。 

  3)线性回归要求自变量和因变量呈线性关系,而logistic回归不要求自变量和因变量呈线性关系 

  4)因变量不同:logistic回归是分析因变量取某个值的概率与自变量的关系,而线性回归是直接分析因变量与自变量的关系 

  Logistic Regression最大的特点就是将函数值收缩到[0,1]这个范围。

猜你喜欢

转载自www.cnblogs.com/eilearn/p/8990073.html