回帰
1、まず、回帰(回帰)ものです
のリターンを達成するために2、その後、(ステップ機械学習)ステップ
STEP1、モデル(モデルはA決定) - 線形モデルを
STEP2、関数の良(評価関数の決意) - 損失関数
STEP3、最高の機能(最良を見つけるための関数) - 勾配降下
3、さらに、より良い行う方法(STEP1を最適化します)
1の方法は、別のモデル(別のモデル選択)を選択
方法2は、隠された要因は、(他の隠された要因を考慮して)考えます
図4に示すように、さらに、オーバーフィッティング防止する(最適化ステップ2)
方法:正則
5.最後に、要約
1、まず、回帰(回帰)ものです
回帰関数は、関数を見つけることであり、入力フィーチャの出力値を介して、xはスカラー。
- 株式市場予測(株式市場予測)
入力:過去10年間での変化、株式、ニュースコンサルティング、M&Aアドバイザリー
出力:平均市場予測明日
- オートパイロット(自己駆動車)
入力:このような道路状況、及び他の車両距離測定し、各無人車両センサデータ、
ハンドル角:出力
- 製品の勧告(勧告)
入力:製品の特性、商品Bの特性
出力:商品Bを購入する可能性
のリターンを達成するために2、その後、(ステップ機械学習)ステップ
栗のために:私たちは、ポケモンスプライトの攻撃を予測します。
入力:CP種(フシギダネ)の進化前の値、血液(HP)、重量(体重)、高さ(高さ)
進化のCP値:出力
STEP1、モデル(モデルはA決定) - 線形モデルを
シンプルな単一機能(XCP)を開始すると起動します(以下、より多くの機能を検討し改善)。
STEP2、関数の良(評価関数の決意) - 損失関数
1、确定好model以后,就开始训练数据
以此类推,训练10个数据:
2、确定损失函数
有了这些真实的数据,那我们怎么衡量模型的好坏呢?从数学的角度来讲,我们使用距离。求实际进化后的CP值与模型预测的CP值差,来判定模型的好坏。
也就是使用 损失函数(Loss function) 来衡量模型的好坏,和越小模型越好。如下图所示:
step3、best function(找出最好的一个函数)——梯度下降法
1、找到一个best function(说白了是找最佳的参数),也就是使损失函数最小时候的参数
2、用梯度下降法,求最佳参数
1)梯度是什么?梯度下降又是什么?
梯度:
- 在单变量的函数中,梯度其实就是函数的微分,代表着函数在某个给定点的切线的斜率
- 在多变量函数中,梯度是一个向量,向量有方向,梯度的方向就指出了函数在给定点的上升最快的方向
梯度下降:“下山最快路径”的一种算法
2)先考虑简单的一个参数w
首先在这里引入一个概念 学习率 :移动的步长,如图7中 η (eta)
步骤1:随机选取一个 w0 。
步骤2:计算微分,也就是当前的斜率,根据斜率来判定移动的方向。
大于0向右移动(增加w)
小于0向左移动(减少w)
步骤3:根据学习率移动。
重复步骤2和步骤3,直到找到最低点。
3)再考虑两个参数(w、b)
3、梯度下降法的效果
颜色约深的区域代表的损失函数越小
4、梯度下降的缺点
总结一下梯度下降法:我们要解决使L(x)最小时参数的最佳值,梯度下降法是每次update参数值,直到损失函数最小。
但是梯度下降法会出现问题呢?
step4、回归结果分析
经过上述三个步骤后,我们就得到了训练后的“最佳参数w,b”,那么它在测试集的performance怎么样呢?下面一起来看看吧
如何优化呢?继续看吧
3、进一步,如何做得更好(优化step1欠拟合)
方法1、select another model(选择另一个模型)
1、model改用不同函数的performance:
2、如何选择model呢
超过三次函数以上的model都出现了过拟合问题,因此要找到一个suitable model(这里是第三个)
方法2、consider the hidden factors(考虑其他隐藏因素)
1、再考虑另外一个因素(精灵的种类)
performance:
2、把更多的因素都考虑
考虑更多的因素反而出现了过拟合的问题,说明有些因素跟本次实验的CP值预测没有关系!
过拟合这么讨厌,到底如何减少过拟合问题呢?往下看!
4、再进一步,防止过拟合(优化step2)
方法:正则化
1、比如先考虑一个参数w,正则化就是在损失函数上加上一个与w相关的值,使function更加平滑(function没那么大跳跃)
2、正则化的缺点
正则化虽然能够减少过拟合的现象,但是因为加在损失函数后面的值是平白无故加上去的,所以正则化过度的话会导致bias偏差增大
5、最后,总结