反向 Dropout,韩松团队最新工作NetAug:提高Tiny神经网络性能的新训练方法

​作者丨happy
编辑丨极市平台
本文首发于极市平台,转载请获得授权并标明出处。

论文链接:https://arxiv.org/abs/2110.08890

TinyNN的福音:韩松团队提出针对TinyNN推理无损涨点的新型训练方案NetAug。本文从正则技术的作用以及TinyNN与大网络的容量角度出发,分析了为何正则技术会影响TinyNN的性能,进而提出了适用于TinyNN的新型训练方案NetAug。在ImageNet分类任务上,NetAug可以提升MobileNetV2-tiny性能达2.1%

原文地址:反向 dropout!韩松团队最新工作 NetAug:提高 Tiny 神经网络性能的新训练方法

猜你喜欢

转载自blog.csdn.net/Extremevision/article/details/121293760