何恺明:重新思考ImageNet预训练模型

参考文章:https://mp.weixin.qq.com/s/XM1AEBVleaOe9LNe4cDaxg

论文:《Rethinking ImageNet Pre-training》

总结:

(1)当数据量较少时,建议使用预训练模型,这样可以快速收敛,而且可以得到较好的精度;

(2)数据量足够的情况下,预训练模型相比随机初始化可以更快收敛,但不能带来精度的提高。

猜你喜欢

转载自blog.csdn.net/weixin_41770169/article/details/86589677