AMiner会议论文推荐第五十三期

AMiner平台由清华大学计算机系研发,拥有我国完全自主知识产权。平台包含了超过2.3亿学术论文/专利和1.36亿学者的科技图谱,提供学者评价、专家发现、智能指派、学术地图等科技情报专业化服务。系统2006年上线,吸引了全球220个国家/地区1000多万独立IP访问,数据下载量230万次,年度访问量超过1100万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。


ICLR 2021 论文推荐

Transformer protein language models are unsupervised structure learners(变形蛋白语言模型是无监督结构学习器)

论文链接:https://www.aminer.cn/pub/6008338f9e795ed227f53199/transformer-protein-language-models-are-unsupervised-structure-learners?conf=iclr2021

推荐理由: 无监督接触预测是揭示蛋白质结构确定和设计的物理、结构和功能约束的核心。几十年来,最主要的方法是从一组相关序列推断进化约束。在过去的一年里,蛋白质语言模型已作为潜在的替代方法出现,但性能还没有达到生物信息学中最先进的方法。在本文中,作者证明了Transformer注意力地图可以从无监督的语言建模目标中学习联系人。该工作发现目前已训练的最高容量模型已优于最先进的无监督联系预测流水线,这表明这些流水线可以用一个端到端模型的单次正向传递来替代。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Intraclass clustering: an implicit learning ability that regularizes DNNs(类内聚类:一种将DNN规范化的隐性学习能力)

论文链接:https://www.aminer.cn/pub/600831759e795ed227f530b5/intraclass-clustering-an-implicit-learning-ability-that-regularizes-dnns?conf=iclr2021

推荐理由: 一些工作表明,对深度神经网络泛化性能的正则化机制仍知之甚少。在本文中,作者假设深度神经网络通过其在一类样本中提取有意义的聚类的能力来实现正则化。这意味着一种不需要任何监督或明确的训练机制学习能力的出现,由此构成了一种隐性的正则化形式。为了支持这一假设,作者设计了四种不同的类内聚类测量方法,基于训练数据的神经元和层级表示。该工作表明,这些措施构成了泛化性能的准确预测因子,跨越了大量超参数(学习率、批次大小、优化器、权重衰减、辍学率、数据增强、网络深度和宽度)的变化。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Deep Repulsive Clustering of Ordered Data Based on Order-Identity Decomposition(基于阶次-特征分解的有序数据深度斥力聚类技术)

论文链接:https://www.aminer.cn/pub/600831029e795ed227f53091/deep-repulsive-clustering-of-ordered-data-based-on-order-identity-decomposition?conf=iclr2021

推荐理由: 作者提出了订单数据的深度斥力聚类(deep repulsive clustering, DRC)算法,以实现有效的订单学习。首先,该工作开发了秩序-身份分解(order-identity decomposition, ORID)网络,将对象实例的信息分为秩序相关特征和身份特征。接着,根据对象实例的身份特征,使用斥力项将其分组为聚类。此外,作者通过与同一簇内的参照物进行比较,来估计测试实例的等级。在面部年龄估计、审美分数回归和历史彩色图像分类上的实验结果表明,所提出的算法可以有效地对有序数据进行聚类,同时也产出了优异的等级估计性能。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

AMiner,一个具有认知智能的学术搜索引擎:https://www.aminer.cn/

#AMiner# #论文#

猜你喜欢

转载自blog.csdn.net/AI_Conf/article/details/115136666