深度学习调参之Early stopping

在机器学习中,超参数激增,选出可行的算法也变得越来越复杂。我发现,如果我们用一组工具优化代价函数J,机器学习就会变得更简单,在重点优化代价函数时,你只需要留意w和b,J(w,b)的值越小越好,你只需要想办法减小这个值,其它的不用关注。还要注意过拟合

但early stopping的主要缺点就是你不能独立地处理这两个问题,因为提早停止梯度下降,也就是停止了优化代价函数,因为现在你不再尝试降低代价函数,所以代价函数的值可能不够小,同时你又希望不出现过拟合,你没有采取不同的方式来解决这两个问题,而是用一种方法同时解决两个问题,这样做的结果是我要考虑的东西变得更复杂。

如果不用early stopping,另一种方法就是正则化,训练神经网络的时间就可能很长。我发现,这导致超级参数搜索空间更容易分解,也更容易搜索,但是缺点在于,你必须尝试很多正则化参数(lamda)的值,这也导致搜索大量值的计算代价太高。

Early stopping的优点是,只运行一次梯度下降,你可以找出的较小值,中间值和较大值,而无需尝试正则化超级参数的很多值。

虽然正则化有缺点,可还是有很多人愿意用它。吴恩达老师个人更倾向于使用正则化,尝试许多不同的值,假设你可以负担大量计算的代价
而使用early stopping也能得到相似结果,还不用尝试这么多值。

猜你喜欢

转载自blog.csdn.net/qq_38574975/article/details/107574241