23 解决偏差和方差问题(23 Addressing Bias and Variance)

下面是解决偏差和方差问题最简单的原则:

  • 如果是可避免的高偏差,则增大模型(比如:给神经网络增加层或神经元)

  • 如果是方差很高,则给训练集添加更多数据

如果你可以无限制地扩大网络,增加训练数据,就可以在很多机器学习问题上做的很好。

实际上因为训练大型的模型速度很慢,所以扩大模型最终导致计算问题。你也可能在获取更多数据的问题上精疲力竭。(即使在因特网上,关于猫的图片数量也是有限的!)

不同的模型架构——比如不同的神经网络结构——在你要处理的问题上有不同的偏差和方差。最近的许多深度学习研究发展出了很多创新性的模型架构。所以当你准备使用神经网络时,学术论文是很好的灵感来源。当然,在github上也有很多开源实现。但是尝试新架构比扩大网络,增加训练数据的简单原则的结果更加不可预测。

一般来说扩大模型会减少偏差,但是它又会同时增加方差和过拟合的风险。然而这种过拟合只出现在没有使用正则化的时候。如果你的模型包含了一个设计好的正则化方法,那么通常可以放心的扩大模型而不会出现过拟合。

假如你应用深度学习中包含L2正则化或dropout,同时L2正则化参数是在开发集上表现最好参数。此时,如果扩大网络,通常模型性能会保持不变或有所增加;不太可能变得很差。避免使用更大的模型的唯一原因是计算成本的增加。

猜你喜欢

转载自blog.csdn.net/weixin_35576881/article/details/80296825