ICLR 2019高分论文抢先看,谁是第一?

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/84645545

640?wx_fmt=png


作者 | 非主流

出品 | AI科技大本营 


ICLR 2019 将于明年的 5 月 6-9 日在美国路易斯安那州的新奥尔良市举行。本届大会共收到近 1600 篇投稿,相比 ICLR 2018 的 935 篇,以及 ICLR 2017 的 490 篇,几乎每年都在翻番。


此前,ICLR 一直采用公开评审的方式,而在公开评审结束后,论文作者也能够对论文进行调整和修改。不过,随着这种公开评审的机制受到越来越多的质疑,在去年的时候,ICLR 2018 改成了双盲评审。


如今,ICLR 2019 大部分论文的 OpenReview 的评分已经出炉,Horace He 和往年一样抓取到了这些数据,并放到了网上。


传送门:

https://chillee.github.io/OpenReviewExplorer/index.html


下面的三组图表展示了近三年来 ICLR 论文平均得分的分布。


                           

640?wx_fmt=jpeg                            

640?wx_fmt=jpeg

640?wx_fmt=jpeg

              

看完整体再看局部,以下 11 篇是目前评分在 8 分及以上的论文,目前还没出现 9 分的论文。


640?wx_fmt=png

      


1.Benchmarking Neural Network Robustness to Common Corruptions and Perturbations(8.50)


简介:该论文提出了两个 Benchmark,其中 ImageNet-C 用于衡量分类器对损坏的鲁棒性,ImageNet-P 用于衡量对干扰的鲁棒性。


2.ALISTA: Analytic Weights Are As Good As Learned Weights in LISTA  (8.50)


简介:以往深度神经网络学习权重的过程是一个黑箱,该论文提出了 ALISTA,可以通过分析计算来学习权重,不仅可以取得同样的效果,而且大大简化了训练过程。


3.Large Scale GAN Training for High Fidelity Natural Image Synthesis(8.45)


简介:这篇就是大家比较熟悉的 BigGAN,运用了有史以来最大的训练规模,作者来自 DeepMind。


4.GENERATING HIGH FIDELITY IMAGES WITH SUBSCALE PIXEL NETWORKS AND MULTIDIMENSIONAL UPSCALING(8.36)


简介:该论文证明了自回归模型也可以生成高保真图像。


5.Variational Discriminator Bottleneck: Improving Imitation Learning, Inverse RL, and GANs by Constraining Information Flow(8.20)


简介:针对对抗性学习的不稳定性,该论文提出用信息瓶颈来约束鉴别器(Discriminator)的方法。该方法适用于模仿学习、逆向强化学习以及生成对抗网络。


6.Ordered Neurons: Integrating Tree Structures into Recurrent Neural Networks(8.09)


简介:该论文介绍了一种新的归纳偏差(nductive bias),它可以将树结构集成到递归神经网络中。


7.Slimmable Neural Networks (8.08)


简介:该论文提出了一种简单通用的方法来训练可以在不同宽度下执行的单个神经网络(每一层中的通道数),从而允许即时对精确度和效率进行权衡。


8.An Empirical Study of Example Forgetting during Deep Neural Network Learning (8.08)


简介:该论文证明了灾难性遗忘在单一任务的范围内也会发生,并且发现不容易遗忘的例子可以从训练集中移除,而且不会影响泛化性。


9.Posterior Attention Models for Sequence to Sequence Learning(8.00)


简介:该论文证明了基于后验分布来计算 attention,会让 attention更有意义,而且表现更好。


10.Unsupervised Learning of the Set of Local Maxima(8.00)


简介:该论文介绍了一种新的无监督学习的形式,实验表明,这种方法能够在异常检测任务中胜过单分类算法,并且还通过完全无监督的方式提取附加信息。


11.Enabling Factorized Piano Music Modeling and Generation with the MAESTRO Dataset(8.00)


简介:论文作者基于 MAESTRO 数据集训练了一套模型,可以转录、创作以及合成具有连贯音乐结构的音频波形。


当然,以上评分是动态的,而且评分最高并不一定代表就能获奖,但是这个分数依然有很大的指导意义。比如 ICLR 2018 的三篇最佳论文在  OpenReview  上的评分都比较高,分列第 3、7、14 名。


目前,本届大会的所有投稿论文已经可以在 OpenReview.net 上找到,大家可自行查阅。


传送门:

https://openreview.net/group?id=ICLR.cc/2019/Conference


本文为 AI科技大本营原创文章,转载请联系微信 1092722531。


BDTC 2018

精彩纷呈


2018 年12月6-8 日,由中国计算机学会主办,CCF 大数据专家委员会承办,CSDN、中科天玑数据科技股份有限公司协办的 2018 中国大数据技术大会(BDTC 2018),将在北京新云南皇冠假日酒店隆重举行。


除 Keynote 外,主办方精心策划了 13 场专题技术和行业论坛,涵盖大数据分析与生态系统、深度学习、推荐系统、大数据安全与政策、大数据可视分析、精准医疗大数据、数据科学与大数据技术教育、数据库、金融大数据、知识图谱、工业大数据、区块链、交通与旅游大数据等主题。


点击『阅读原文』,查看大会详情


640?wx_fmt=jpeg


推荐阅读

下次面试若再被问到二叉树,希望你能对答如流!

亚马逊AWS发布AWS RoboMaker 可直接部署机器人

程序员的江湖 务必掌握这些黑话!

高达800万次下载量的npm包被黑客篡改了代码,你的设备或正成为挖矿机

猜你喜欢

转载自blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/84645545