【第20篇】知识蒸馏:Distilling the Knowledge in a Neural Network

摘要

提高几乎所有机器学习算法性能的一个非常简单的方法是用相同的数据训练许多不同的模型,然后对它们的预测[3]求平均值。不幸的是,使用整个模型集合进行预测是很麻烦的,而且可能计算成本太高,无法部署到大量用户中

猜你喜欢

转载自blog.csdn.net/m0_47867638/article/details/131180420