深度学习系列之知识补充

一.迁移学习有效性依据:
因为现有的机器学习,特别是深度学习的各种模型,在能充分满足设计时的任务需求之外,往往具备稍加修改就能适用类似任务的能力。这种可能性,就为节省研发资源,以及将大数据机器学习成果转移到小数据、定制化应用等等提供了一个便捷的渠道。类比人类活学活用的智能:比如一个人扎实地学会了蛙泳,只需要稍加练习,也能较快掌握自由泳的技巧;一个人学会了打网球,那么要学习打壁球也非常容易。

这种举一反三的能力,既得益于人类的智能,也依赖于学习对象之间的某种类比相似性。而机器学习中的很多模型,恰恰在特定领域具有类似的智能。比如用于图像识别的深度神经网络,在使用百万量级的图片,完成针对特定一千种物体识别的训练以后,它不光能胜任这一千种物体的识别,而且它的整个网络结构、参数设置使它也有可能适应其它物体的图像识别。

迁移学习分类:
从具体操作的角度,可以有:

样本迁移,即将任务A中部分适合任务B的数据抽取出来,与其它数据一起针对任务B进行训练;

特征迁移,比如用于识别小轿车的神经网络,那些用来识别车轮车窗的网络参数,可以直接迁移到卡车识别的神经网络,再辅以卡车图像数据,就能事半功倍地训练出卡车识别网络。

模型迁移,这个跟特征迁移类似,但是更简单粗暴,不光是特征被迁移用来类似任务,而且是这个模型都被迁移。这个模式的实际案例非常多,很多研究成果都是将AlexNet、GoogLeNet等模型迁移到特定的任务。当然也会根据需求略作改进和添加新的辅助功能,但是总体上看,节省了大量的开发时间、也节省了大量用于学习的计算资源,还能取得相当甚至更好的效果。

关系迁移,即将事物间的相互关系类推到类似事物。这个可能在NLP等有具体规则的机器学习领域更为常见,比如 man->woman, 可以类推到king->queen,还可以推广到更多词汇的机器理解。
实例心得详见:http://www.infoq.com/cn/news/2016/12/Two-Caffe-practical-migration

二.softmax_loss层,Inner Product层,accuracy层,reshape层和dropout层讲解

http://www.cnblogs.com/denny402/p/5072746.html

猜你喜欢

转载自blog.csdn.net/u012617944/article/details/78260639