AMiner会议论文推荐第五十二期

AMiner平台由清华大学计算机系研发,拥有我国完全自主知识产权。平台包含了超过2.3亿学术论文/专利和1.36亿学者的科技图谱,提供学者评价、专家发现、智能指派、学术地图等科技情报专业化服务。系统2006年上线,吸引了全球220个国家/地区1000多万独立IP访问,数据下载量230万次,年度访问量超过1100万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。


ICLR 2021 论文推荐

Primal Wasserstein Imitation Learning(原始Wasserstein模仿学习)

论文链接:https://www.aminer.cn/pub/5edf5ddc91e011bc656def7d/primal-wasserstein-imitation-learning?conf=iclr2021

推荐理由: 模仿学习(Imitation Learning,IL)方法寻求将代理的行为与专家的行为相匹配。在本工作中,作者提出了一种基于简单算法的新IL方法。Primal Wasserstein Imitation Learning (PWIL), 它与专家和代理状态行动分布之间的Wasserstein距离的原始形式相联系。作者提出了一个离线得出奖励函数,与最近的通过与环境交互学习以得到奖励函数的对抗式IL算法不同,它几乎不需要微调。该工作可以在MuJoCo领域的各种连续控制任务上,以一种样本有效的方式恢复专家行为(包括代理交互和专家与环境的交互)。最后,作者表明,上述训练的代理行为和专家行为与Wasserstein距离相匹配,而不是常用的性能代理。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

BREEDS: Benchmarks for Subpopulation Shift(BREEDS:亚种群转移的基准)

论文链接:https://www.aminer.cn/pub/5f33c6e091e011861cfa10fb/breeds-benchmarks-for-subpopulation-shift?conf=iclr2021

推荐理由: 作者开发了一种方法,用于评估模型对子群体转移的鲁棒性。具体来说,就是评估模型对训练期间未观察到的新数据子群体的泛化能力。该方法利用现有数据集的基础类结构来控制构成训练和测试分布的数据子群。这使作者能够在现有的大规模数据集中合成真实的分布变化。将这种方法应用于ImageNet数据集,该工作创建了一套不同颗粒度的亚种群转移基准。同时,作者利用这些基准来衡量标准模型架构的敏感性,以及现成的训练时间稳健性干预的有效性。


在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Gradient Origin Networks(梯度起源网络)

论文链接:https://www.aminer.cn/pub/5f045c5491e0114d4aaa4b97/gradient-origin-networks?conf=iclr2021

推荐理由: 推荐理由:本文提出了一种新型的隐式生成模型,它能够在没有显式编码器的情况下快速学习潜伏表示。上述模型通过一个隐式神经网络来实现的,网络将坐标空间中的点与初始化为零的潜伏向量一起作为输入。数据拟合损失相对于这个零向量的梯度被共同优化,作为捕捉数据歧管的潜伏点。结果显示该方法与自动编码器具有相似的特点,但参数较少,且拥有隐式表示网络的优势。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

AMiner,一个具有认知智能的学术搜索引擎:https://www.aminer.cn/

#AMiner# #论文#

猜你喜欢

转载自blog.csdn.net/AI_Conf/article/details/115096057