Lifelong Learning

Lifelong Learning


在这里插入图片描述

https://www.forbes.com/sites/kpmg/2018/04/23/the-changing-nature-of-work-why-lifelong-learning-matters-more-than-ever/#4e04e90e1e95

终身学习(Lifelong Learning或Continuous Learning、 Never Ending Learning、Incremental Learning等)的概念对于人来说是很容易理解的,也就是俗话所说的“活到老,学到老”。既然神经网络是从人类脑科学中受启发而来的,那么能否也要求神经网络模型具备终身学习的能力呢?

简单来说,之前我们对于每一个领域的具体问题都会训练一个网络模型,虽然有迁移学习,但是还是要为不同的任务训练很多的模型,能否我们只使用一个模型来不断的学习不同的任务,从而达到可以求解多种问题的能力?这就是在机器学习领域大家想要解决的关于终身学习的问题。


在这里插入图片描述


对于终身学习来说,我们需要解决的主要有三个方面的问题:

  • 知识保留(Knowledge Retention):如果只使用一个模型来不断的学习不同的任务,自然希望它在学习新的任务的时候,也不要忘记已经学习到的东西。同时也要避免为了单纯的保留之前已经学习到的东西而停止学习,这对于现有的神经网络就是第一个很大的挑战;
  • 知识迁移(Knowledge Transfer):我们希望我们的模型可以使用已经学习到的东西来帮助解决新的问题,达到触类旁通的效果。虽然看起来像是迁移学习,但是还是有一定的不同之处;
  • 模型扩展(Model Expansion):如果模型比较简单,也许处理简单问题时还可以,但是在处理复杂问题时,一般都是显得力不从心。故我们希望模型可以自己根据问题的复杂度进行扩展,变为更加复杂的模型。而目前使用神经网络时,用户都是根据自己的任务预定义好了模型的结构,因此解决这个问题十分的困难。

Knowledge Retention

下面我们通过一些简单的例子看一下上述的问题如何理解。假设我们现在需要解决手写数字识别的两个任务,第一个任务的样本加入了某些随机噪声,而第二个任务的样本不做处理,如下所示


在这里插入图片描述

我们希望借助终身学习的理念,使用一个模型就可以在两个任务上取得理想的效果,具体来说就是希望模型可以准确的将上面的两个样本都判别为 000 00 0 g不要离得太远,表示希望模型不要忘记已经学到的东西。


在这里插入图片描述

论文中的实验结果如下所示,在多个数据集的效果都优于它之前的模型。


在这里插入图片描述


Model Expansion

对于这个问题的解决办法至今并不是很多,其中的一种方法是Progressive Neural Network,即在新的任务上训练模型时,使用之前已经训练得到的所有模型的参数作为新模型的初始化参数,而不是使用参数的随机初始化。


在这里插入图片描述

还有一种Expert Gate的方法,它是原理是额外引入了一个Gate,在训练之前比较新任务和之前的哪个任务比较相似,然后使用相似任务上得到的模型的参数初始化新模型的参数。


在这里插入图片描述

Aljundi, R., Chakravarty, P., Tuytelaars, T.: Expert gate: Lifelong learning with a network of experts. CVPR (2017)

还有一种称为Net2Net的方法,它是在需要扩展模型时,将其中的某个节点复制出一个新的节点,它们的参数相同,输出为之前的一半。

详细内容可参考

Net2Net: Accelerating Learning via Knowledge Transfer https://arxiv.org/abs/1511.05641

Expand the network only when the training accuracy of the current task is not good enough. https://arxiv.org/abs/1811.07017


除了上述的问题之外,任务之间的顺序对于模型的效果也有着很大的影响,相关的论文


在这里插入图片描述

TASKONOMY Disentangling Task Transfer Learning http://taskonomy.stanford.edu/#abstract


其他

终身学习著名研究者的个人主页:

  1. Daniel L.Sliver:此人是先驱级的人物,早期理论的奠基人
    http://plato.acadiau.ca/courses/comp/dsilver/DLSWebSIte/Welcome.html
  2. 杨强:此人曾在华为诺亚方舟研究所工作,从事这个方向的研究,现在在香港执教
    http://www.cs.ust.hk/~qyang/
  3. Eric Eaton: 新秀,提出的ELLA算法效率极高(1000倍左右的提升)
    http://www.seas.upenn.edu/~eeaton/

https://www.researchgate.net/publication/242025320_Lifelong_Machine_Learning_Systems_Beyond_Learning_Algorithms

https://blog.csdn.net/qrlhl/article/details/49364173

https://www.oxfordhandbooks.com/view/10.1093/oxfordhb/9780195390483.001.0001/oxfordhb-9780195390483-e-001?print=pdf

https://www.sciencedirect.com/science/article/pii/S1877042812019751

https://www.sciencedirect.com/science/article/pii/S1877042811030023

https://arxiv.org/abs/1802.07569

发布了0 篇原创文章 · 获赞 0 · 访问量 49

猜你喜欢

转载自blog.csdn.net/sdkghsrkghkrrg/article/details/105531691
今日推荐