机器学习中的训练集 验证集 测试集的关系

1.划分测试集目的

  • 为了了解一个模型对新样本的泛化能力,唯一的办法是:让已经训练好的模型真正的处理新的样本。
  • 解决方法: 将原始数据划分成两个部分:训练集 测试集。可以使用训练集来训练模型,然后用测试集来测试模型。通过测试集来评估模型,可以了解模型的泛化误差。
  • 如果训练误差很低,但是泛化误差很高,说明模型对于训练数据已经过拟合了。
  • 一般将原始数据集划分为70%的训练集,30%的测试集合。

2.划分验证集目的

  • 现在有两个模型(例如:线性模型和多项式模型)都可以解决同一个实际问题,你正在由于犹豫不决。如何作出判断:训练出两个模型,然后对比它们对测试数据的泛化能力。假设线性模型的泛化能力更强,但为了避免模型过拟合,有必须设置正则化超参数。如何选择出最佳的正则化超参数的值呢?做法之一是使用100个不同的超参数值来训练100个不同的模型,假设已经找出最佳的超参数值,它生成的模型的泛化误差最小。使用此模型运行在实际生产环境中,并没有达到预期的精度。这是由于在你对测试集的泛化误差进行了多次测量来调整模型和超参数时,拟合出的模型只对测试集是最佳参数,对新的数据不太有可能有好的表现。
  • 解决方法:单独从原始数据中划分出一个保留的集合即验证集。在训练集上,使用不同的超参数训练多个模型,然后通过验证集,选择出最好的那个模型和对应的超参数。最后再运行一遍测试集,得到泛化误差的估计值。
  • 实际中,为了避免浪费太多的训练数据,采用交叉验证。将训练集划分为若干个互补的子集,然后每个模型都通过这些子集的不同组合来进行训练,之后用剩余的子集来进行验证。一旦模型和超参数都确定,最终的模型会带着这些超参数对整个训练集进行一次训练,最后用测试集来测量泛化误差。
  • 一般划分规则: 60%训练集数据,20%验证集数据, 20%测试集数据

3.K折交叉验证

  • 将可用数据划分为K个分区(K通常为4或5),实例化K个相同的模型,将每个模型在K-1个分区上训练,并在剩下的一个分区上进行评估,模型的验证分数等于K个验证分数的平均值。

4.训练集 验证集 测试集使用

  • 在训练集上训练模型,在验证集上评估模型,一旦找到最佳参数,就在测试集上最后测试一次。

5.多分类与多标签分类区别

  • 多分类:每个样本都应被划分到两个以上的类别上,例如MNIST手写数字体分类
  • 多标签分类:每个输入样本可以被分配到多个标签。例如一幅图像中既有猫又有狗,那么应该同时标注“猫”和“狗”的标签,每幅图片的标签的个数通常是可变的。

猜你喜欢

转载自blog.csdn.net/cdlwhm1217096231/article/details/88413843