李宏毅机器学习笔记01(regression)

Regression

1、首先,什么是regression(回归)

2、然后,实现回归的步骤(机器学习的步骤)

  step1、model(确定一个模型)——线性模型

  step2、goodness of function(确定评价函数)——损失函数

  step3、best function(找出最好的一个函数)——梯度下降法

3、进一步,如何做得更好(优化step1)

  方法1、select another model(选择另一个模型)

  方法2、consider the hidden factors(考虑其他隐藏因素)

4、再进一步,防止过拟合(优化step2)

  方法:正则化

5、最后,总结

1、首先,什么是regression(回归)

  Regression 就是找到一个函数 function,通过输入特征 x ,输出一个数值 Scalar

  • 股市预测(Stock market forecast)

    输入:过去10年股票的变动、新闻咨询、公司并购咨询等
    输出:预测股市明天的平均值

  • 自动驾驶(Self-driving Car)

    输入:无人车上的各个sensor的数据,例如路况、测出的车距等
    输出:方向盘的角度

  • 商品推荐(Recommendation)

    输入:商品A的特性,商品B的特性
    输出:购买商品B的可能性

2、然后,实现回归的步骤(机器学习的步骤)

  举个栗子:我们要预测Pokemon精灵攻击力。

  输入:进化前的CP值、物种(Bulbasaur)、血量(HP)、重量(Weight)、高度(Height)
  输出:进化后的CP值

  step1、model(确定一个模型)——线性模型

  

  先从简单的单个特征(Xcp)开始(后面改进再考虑多个特征)。

 step2、goodness of function(确定评价函数)——损失函数

  1、确定好model以后,就开始训练数据

  

  以此类推,训练10个数据:

   2、确定损失函数

  有了这些真实的数据,那我们怎么衡量模型的好坏呢?从数学的角度来讲,我们使用距离。求实际进化后的CP值模型预测的CP值差,来判定模型的好坏。

也就是使用 损失函数(Loss function) 来衡量模型的好坏,和越小模型越好。如下图所示:

 

 step3、best function(找出最好的一个函数)——梯度下降法

   1、找到一个best function(说白了是找最佳的参数),也就是使损失函数最小时候的参数

  2、用梯度下降法,求最佳参数  

  1)梯度是什么?梯度下降又是什么?

  梯度

  • 在单变量的函数中,梯度其实就是函数的微分,代表着函数在某个给定点的切线的斜率
  • 在多变量函数中,梯度是一个向量,向量有方向,梯度的方向就指出了函数在给定点的上升最快的方向

  梯度下降:“下山最快路径”的一种算法

  2)先考虑简单的一个参数w

 

  首先在这里引入一个概念 学习率 :移动的步长,如图7中 η (eta)

  步骤1:随机选取一个 w0 。
  步骤2:计算微分,也就是当前的斜率,根据斜率来判定移动的方向。
     大于0向右移动(增加w)
     小于0向左移动(减少w)
  步骤3:根据学习率移动。
  重复步骤2和步骤3,直到找到最低点。


  3)再考虑两个参数(w、b)

  3、梯度下降法的效果

  颜色约深的区域代表的损失函数越小

  

   4、梯度下降的缺点

    总结一下梯度下降法:我们要解决使L(x)最小时参数的最佳值,梯度下降法是每次update参数值,直到损失函数最小。

  但是梯度下降法会出现问题呢?

  step4、回归结果分析

  经过上述三个步骤后,我们就得到了训练后的“最佳参数w,b”,那么它在测试集的performance怎么样呢?下面一起来看看吧

 

  

  如何优化呢?继续看吧

3、进一步,如何做得更好(优化step1欠拟合)

  方法1、select another model(选择另一个模型)

  1、model改用不同函数的performance:

       

  2、如何选择model呢

 

 

  超过三次函数以上的model都出现了过拟合问题,因此要找到一个suitable model(这里是第三个)

  方法2、consider the hidden factors(考虑其他隐藏因素)

  1、再考虑另外一个因素(精灵的种类)

  

 

   performance:

 

 2、把更多的因素都考虑

              

 

   考虑更多的因素反而出现了过拟合的问题,说明有些因素跟本次实验的CP值预测没有关系

   过拟合这么讨厌,到底如何减少过拟合问题呢?往下看!

4、再进一步,防止过拟合(优化step2)

  方法:正则化

  1、比如先考虑一个参数w,正则化就是在损失函数上加上一个与w相关的值,使function更加平滑(function没那么大跳跃)

  2、正则化的缺点

  正则化虽然能够减少过拟合的现象,但是因为加在损失函数后面的值是平白无故加上去的,所以正则化过度的话会导致bias偏差增大

  

  5、最后,总结

猜你喜欢

转载自www.cnblogs.com/xxlad/p/11198853.html