最新论文阅读(1)


#One Model To Learn Them All

 - 2017年6月	
 - 多模态多任务模型,目的是希望在一个模型中完成不同的任务,该论文重点介绍不同模块的整合。
 - google

MultiModel 由几个模式网络、一个编码器、I/O 混合器、一个自回归解码器构成,它的主体由多个卷积层、注意力机制、和稀疏门控专家混合层组成。
  上面提到的每个计算模块,都会在某些类任务中发挥着关键作用,在那些发挥不了关键作用的任务中,这些模块也不会干扰,反而能在大多数的情况下还能发挥一些作用。
普通的 multi-task learning 一般都是在用一个领域内,而本文将各个组件说成是单模型的building block,不当成单独的模型。"


#A Brief Survey of Deep Reinforcement Learning
- 2017年8月
- 强化学习的概论
-
  作者首先介绍了跟强化学习有关的一些领域,然后对现在比较主流的两种方法——基于价值和基于策略的方法进行了深入探讨。
  这篇文章涉及了深度强化学习的核心算法,包括deep Q-network,信赖域策略优化,和异步式actor-critic方法。同时,作者强调了深度神经网络的独特优势——通过强化学习进行视觉理解。


#Twin Networks: Using the Future as a Regularizer
-
- RNN
- 蒙特利尔工学院;微软
  在本文中,作者介绍了一种简单的使用RNNs规划未来的方法。为了达到这个目标,他们引入另外一个训练过的神经网络,并且与原神经网络顺序相反。
  双子网的核心思想是使得向前和向后的RNNs在预测同样的状态时达到拟合。在每一步的预测中,正向神经网络预测的状态需要匹配后向神经网络之中包含的未来信息。"


#Using millions of emoji occurrences to learn any-domain representations for detecting sentiment, emotion and sarcasm
-
- 用表情数据学习情绪
-

猜你喜欢

转载自blog.csdn.net/wydbyxr/article/details/80538676