过拟合和欠拟合的解决办法。

Underfitting

清洗数据,增加数据根据先验知识对数据扩充变换,
增加特征
删除噪音特征
调低正则项的惩罚参数
换更“复杂”的模型(如把线性模型换为非线性模型)
多个模型级联或组合(集成学习)
迁移学习(借用大模型进行微调)

Overfitting

增加数据根据先验知识对数据扩充变换,生成对抗网络,
进行特征选择
降维(如对特征进行聚类、主题模型进行处理等)Dropout方法
提高正则项的惩罚参数
减少训练迭代次数
换更“简单”的模型(如把非线性模型换为线性模型)
集成学习

发布了9 篇原创文章 · 获赞 0 · 访问量 76

猜你喜欢

转载自blog.csdn.net/GFDGFHSDS/article/details/104595967
今日推荐