概率生成模型超越神经网络

学界 | Vicarious发表Science论文:概率生成模型超越神经网络

选自Science

作者:D. George等

参与:蒋思源

当前人工智能的兴起主要基于深度学习的发展,但是这种方法并不能让计算机像人类一样通过学习少量样本就能将知识泛化到很多种问题中去,这也意味着系统应用范围受限。最近,知名人工智能创业公司 Vicarious 在 Science 上发表的研究提出了一种全新概率生成模型。新的模型具有识别、分割和推理能力,在场景文字识别等任务上超过了深度神经网络。研究人员称,这种方法或许会将我们带向通用人工智能。

论文:A generative vision model that trains with high data efficiency and breaks text-based CAPTCHAs

一文看懂25个神经网络模型
2017年06月17日 10:26:08 刘炫320 阅读数:66937 标签: 神经网络 深度学习 LSTM 对抗神经网络 深度信念网络 更多
个人分类: 深度学习

  1. 引言
    在深度学习十分火热的今天,不时会涌现出各种新型的人工神经网络,想要实时了解这些新型神经网络的架构还真是不容易。光是知道各式各样的神经网络模型缩写(如:DCIGN、BiLSTM、DCGAN……还有哪些?),就已经让人招架不住了。

因此,这里整理出一份清单来梳理所有这些架构。其中大部分是人工神经网络,也有一些完全不同的怪物。尽管所有这些架构都各不相同、功能独特,当我在画它们的节点图时……其中潜在的关系开始逐渐清晰起来。

把这些架构做成节点图,会存在一个问题:它无法展示神经网络架构内部的工作原理。举例来说,变分自编码机(VAE:variational autoencoders )看起来跟自编码机(AE:autoencoders)差不多,但它们的训练过程却大不相同。训练后的模型在使用场景上差别更大:VAE是生成器,通过插入噪音数据来获取新样本;而AE仅仅是把他们所收到的任何信息作为输入,映射到“记忆中”最相似的训练样本上。

在介绍不同模型的神经元和神经细胞层之间的连接方式前,我们一步一步来,先来了解不同的神经元节点内部是如何工作的。

这是通过GANs实现模仿学习。不同于传统的奖励机制,某些AI研究人员希望针对自主学习智能体,提出一种全新的方法。

他们将实际的示范数据输入到智能体,然后智能体从中学习并尝试模仿相同的动作。

△一个小人试图模仿人类来自学跑步

在这个模型中,Jonathan Ho和Stefano Ermon提出了一种模仿学习的新方法。一般来说,强化学习通常需要设计一个衡量智能体运动行为的奖励机制。但是,在实际中,可能要经历成本昂贵的试错过程,才能得到合理的前进表现。

然而,在模仿学习中,智能体从示范数据(机器人的远程操作或是人类行为)中学习,消除了设计奖励机制的要求。关于强化学习在这方面的最新研究可移步量子位编译过的“”。


全文地址请点击:https://blog.csdn.net/xinbolai1993/article/details/78694457?utm_source=copy

猜你喜欢

转载自www.cnblogs.com/wdmx/p/9721198.html