24 偏差,方差平衡 (24 Bias vs. Variance tradeoff)

你有可能听说过偏差方差权衡。在对学习算法做修改时,有一些方法是这样的效果:减少偏差同时增加了方差,反之亦然。这就有了偏差方差平衡。

举个例子,扩大模型—添加神经元或网络层或者增加输入特征—通常会减少偏差但是却会增加方差。或者给模型添加正则化方法通常增加偏差却减小方差。

在当今时代,我们通常可以获取大量数据并且可以使用大型的网络(深度学习)。因此,偏差方差平衡较少起到作用,现在更多的是减少偏差的同时不增加方差,反之亦然。

举个例子:可以通过扩大网络和调整正则化方法来减少偏差却不会显著地增加方差。通过增加训练数据,可以减少方差却不影响偏差。

如果选择了一个适合你的任务的模型架构,你可能同时减少偏差和方差。选择这样一个架构可能很困难。

在下面的几章中,我们讨论解决方差偏差问题的额外的具体的技术。

猜你喜欢

转载自blog.csdn.net/weixin_35576881/article/details/80296975