CHANG機械学習ノート01(回帰)

回帰

1、まず、回帰(回帰)ものです

のリターンを達成するために2、その後、(ステップ機械学習)ステップ

  STEP1、モデル(モデルはA決定) - 線形モデルを

  STEP2、関数の良(評価関数の決意) - 損失関数

  STEP3、最高の機能(最良を見つけるための関数) - 勾配降下

3、さらに、より良い行う方法(STEP1を最適化します)

  1の方法は、別のモデル(別のモデル選択)を選択

  方法2は、隠された要因は、(他の隠された要因を考慮して)考えます

図4に示すように、さらに、オーバーフィッティング防止する(最適化ステップ2)

  方法:正則

5.最後に、要約

 

1、まず、回帰(回帰)ものです

  回帰関数は、関数を見つけることであり、入力フィーチャの出力値を介して、xはスカラー

 

  • 株式市場予測(株式市場予測)

    入力:過去10年間での変化、株式、ニュースコンサルティング、M&Aアドバイザリー
    出力:平均市場予測明日

  • オートパイロット(自己駆動車)

    入力:このような道路状況、及び他の車両距離測定し、各無人車両センサデータ、
    ハンドル角:出力

  • 製品の勧告(勧告)

    入力:製品の特性、商品Bの特性
    出力:商品Bを購入する可能性

 

のリターンを達成するために2、その後、(ステップ機械学習)ステップ

  栗のために:私たちは、ポケモンスプライトの攻撃を予測します。

  入力:CP種(フシギダネ)の進化前の値、血液(HP)、重量(体重)、高さ(高さ)
  進化のCP値:出力

 

  STEP1、モデル(モデルはA決定) - 線形モデルを

  

  シンプルな単一機能(XCP)を開始すると起動します(以下、より多くの機能を検討し改善)。

 

 STEP2、関数の良(評価関数の決意) - 損失関数

  1、确定好model以后,就开始训练数据

  

  以此类推,训练10个数据:

   2、确定损失函数

  有了这些真实的数据,那我们怎么衡量模型的好坏呢?从数学的角度来讲,我们使用距离。求实际进化后的CP值模型预测的CP值差,来判定模型的好坏。

也就是使用 损失函数(Loss function) 来衡量模型的好坏,和越小模型越好。如下图所示:

 

 

 

 step3、best function(找出最好的一个函数)——梯度下降法

   1、找到一个best function(说白了是找最佳的参数),也就是使损失函数最小时候的参数

 

  2、用梯度下降法,求最佳参数  

  1)梯度是什么?梯度下降又是什么?

  梯度

  • 在单变量的函数中,梯度其实就是函数的微分,代表着函数在某个给定点的切线的斜率
  • 在多变量函数中,梯度是一个向量,向量有方向,梯度的方向就指出了函数在给定点的上升最快的方向

  梯度下降:“下山最快路径”的一种算法

  2)先考虑简单的一个参数w

 

 

  首先在这里引入一个概念 学习率 :移动的步长,如图7中 η (eta)

  步骤1:随机选取一个 w0 。
  步骤2:计算微分,也就是当前的斜率,根据斜率来判定移动的方向。
     大于0向右移动(增加w)
     小于0向左移动(减少w)
  步骤3:根据学习率移动。
  重复步骤2和步骤3,直到找到最低点。


  3)再考虑两个参数(w、b)

 

  3、梯度下降法的效果

  颜色约深的区域代表的损失函数越小

  

   4、梯度下降的缺点

    总结一下梯度下降法:我们要解决使L(x)最小时参数的最佳值,梯度下降法是每次update参数值,直到损失函数最小。

 

  但是梯度下降法会出现问题呢?

 

  step4、回归结果分析

  经过上述三个步骤后,我们就得到了训练后的“最佳参数w,b”,那么它在测试集的performance怎么样呢?下面一起来看看吧

 

  

  如何优化呢?继续看吧

 

3、进一步,如何做得更好(优化step1欠拟合)

  方法1、select another model(选择另一个模型)

  1、model改用不同函数的performance:

       

 

  2、如何选择model呢

 

 

 

  超过三次函数以上的model都出现了过拟合问题,因此要找到一个suitable model(这里是第三个)

  方法2、consider the hidden factors(考虑其他隐藏因素)

  1、再考虑另外一个因素(精灵的种类)

  

 

   performance:

 

 2、把更多的因素都考虑

 

              

 

   考虑更多的因素反而出现了过拟合的问题,说明有些因素跟本次实验的CP值预测没有关系

   过拟合这么讨厌,到底如何减少过拟合问题呢?往下看!

4、再进一步,防止过拟合(优化step2)

  方法:正则化

  1、比如先考虑一个参数w,正则化就是在损失函数上加上一个与w相关的值,使function更加平滑(function没那么大跳跃)

  2、正则化的缺点

  正则化虽然能够减少过拟合的现象,但是因为加在损失函数后面的值是平白无故加上去的,所以正则化过度的话会导致bias偏差增大

  

  5、最后,总结

 

おすすめ

転載: www.cnblogs.com/xxlad/p/11198853.html