线性回归(一)

线性回归

  1. 单变量线性回归的目标是:通过模型来描述某一特征(解释变量X)与连续输出(目标变量y)之间的关系,当只有一个解释变量时线性模型定义如下。y=W0+W1X。W0成为函数在y轴上的截距,W1为系数。目标是通过学习得到线性方程的两个权值,并用他们描述解释变量和目标变量之间的关系,当解释变量为非训练集中数据时,可用此线性关系来预测对应的输出。
  2. 多元线性回归:线性回归模型扩展为多个解释变量,y=W0X0+W1X1+W2X2+…+WmXm = ΣWiXi = (点积)W^TX
  3. 相关性系数矩阵是一个包含皮尔逊积矩相关系数,他用来衡量两两特征间的线性依赖关系
  4. 基于最小二乘法构建线性回归模型在这里插入图片描述
  5. 代价函数y代表真实结果,y^代表预测值
  6. 梯度下降法是一种方法,优化的是代价函数

线性回归模型性能的评估

  1. 残差图:以残差为纵坐标,以任何其他指定的量为横坐标的散点图。度量线性回归模型的可视化工具
  2. MSE 均方误差在这里插入图片描述
  3. 决定系数 R^2:可以看做是MSE的标准化版本Var(y)表示方差
    Var(y)表示方差

正则化

线性回归中的正则化(目的解决过拟合的现象)
过拟合的原因:1.训练数据过少,2.特征过多,3.模型过于复杂

  1. 岭回归在这里插入图片描述
  2. LASSO回归在这里插入图片描述
  3. 总结在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/slm22233/article/details/83382089