k-fold与交叉验证

https://zhuanlan.zhihu.com/p/24825503

  1. 常用的是对标注数据集做7:3划分训练集和验证集,只用了一部分数据,且结果很大程度上依赖于选取的数据。
  2. LOOCV(Leave-one-out cross-validation):每次用一个样本测试,其他数据训练。计算量太大。
  3. k_fold cv (k-fold cross validation) :把数据分K份,每次留一份进行验证,k=N时是loocv。得到k个模型取最优。
  • k的选取,过大投入训练数据太多,极端例子成为loocv,导致每次训练的数据相关性很大。
  • 过小很难得到较优结果。

猜你喜欢

转载自blog.csdn.net/silent_crown/article/details/84825692
今日推荐