AMiner会议论文推荐第五十四期

AMiner平台由清华大学计算机系研发,拥有我国完全自主知识产权。平台包含了超过2.3亿学术论文/专利和1.36亿学者的科技图谱,提供学者评价、专家发现、智能指派、学术地图等科技情报专业化服务。系统2006年上线,吸引了全球220个国家/地区1000多万独立IP访问,数据下载量230万次,年度访问量超过1100万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。


WWW 2021 论文推荐

Learning Intents behind Interactions with Knowledge Graph for Recommendation(利用知识图谱学习互动背后的学习意图以进行推荐)

论文链接:https://www.aminer.cn/pub/602b9c0891e0113d72356c5a/learning-intents-behind-interactions-with-knowledge-graph-for-recommendation?conf=www2021

推荐理由: 在这项研究中,作者用辅助的物品知识研究用户-物品的互动后的意图,并且提出了新的模型——KGIN。模型将每个意图看做一个KG关系的注意力组合,来独立不同的意图,使其能力和可解释性更强。除此之外,作者还为GNN设计了一个新的信息聚合模型, 可以递归地聚合长连接的关系序列。该工作可以提取用户意图的有用信息,将他们编码为用户和物品的表示。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Interest-aware Message-Passing GCN for Recommendation(用于推荐的兴趣感知信息传递GCN)

论文链接:https://www.aminer.cn/pub/60338c4491e011e54d039c4e/interest-aware-message-passing-gcn-for-recommendation?conf=www2021

推荐理由: GCN在推荐领域具有很大的潜力,但是基于GCN的推荐模型经常会遇到过度平滑的问题。近期出现的模型LightGCN和LR-GCN模型在一定程度上缓解了这个问题,但是其忽视了一个重要因素——在图卷积运算中,没有其中一个用户的共同兴趣的高阶邻居用户也可以包括于其他用户的embedding。因而多层卷积会使具有不同兴趣的用户得到类似的embedding。因此,作者提出消息传递GCN模型(IMP-GCN),较目前的先进模型性能更好。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

RetaGNN: Relational Temporal Attentive Graph Neural Networks for Holistic Sequential Recommendation(RetaGNN: 用于整体序列推荐的关系时效性图谱神经网络)

论文链接:https://www.aminer.cn/pub/6017cf5991e011875460f1cf/retagnn-relational-temporal-attentive-graph-neural-networks-for-holistic-sequential-recommendation?conf=www2021

推荐理由: 在这项工作中,作者提出了一个基于深度学习的新顺序推荐模型——关系时序注意力图神经网络(RetaGNN)。RetaGNN的中心思想有三个方面:1.为了具有归纳和可转移的能力,该工作从局部子图上的用户-项目对训练了关系注意力GNN,其中可学习的权重矩阵位于用户、项目和属性之间的各种关系上,而不是节点或边上。2.用户偏好的长期和短期时间模式是通过提出的顺序自我注意力机制进行编码的。3.该工作设计了一个关系感知的正则化术语,以更好地训练RetaGNN。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Extract the Knowledge of Graph Neural Networks and Go Beyond it: An Effective Knowledge Distillation Framework(一个有效的知识提炼框架:提取图神经网络的知识并超越它)

论文链接:https://www.aminer.cn/pub/604216c391e0115d09aff27a/?conf=www2021

推荐理由: 图上的半监督学习是机器学习领域中一个重要问题。近年来,基于图神经网络(graph neural networks. GNNs)的先进分类方法已显示出较传统的标签传播等方法的优越性,但这些神经模型的复杂架构有着复杂的预测机制,无法充分利用有价值的先验知识。在本文中,作者提出了一个基于知识提炼的框架来解决上述问题。该框架将任意学习的GNN模型(教师模型)的知识提取出来,并将其注入到一个设计好的学生模型中。学生模型的建立有两种简单的预测机制,即标签传播和特征转换,分别自然保留了基于结构和基于特征的先验知识。具体来说,该工作将学生模型设计为参数化的标签传播和特征转换模块的可训练组合。因此,学习型学生可以同时受益于先验知识和GNN教师中的知识,从而进行更有效的预测。作者在5个公共基准数据集上进行实验,结果显示学习后的学生模型平均可以持续优于其对应的教师模型1.4%-4.7%。


在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Self-Supervised Multi-Channel Hypergraph Convolutional Network for Social Recommendation(用于社交推荐的自监督多通道超图卷积网络)

论文链接:https://www.aminer.cn/pub/6006a8e291e0111a1b6a21e2/self-supervised-multi-channel-hypergraph-convolutional-network-for-social-recommendation?conf=www2021

推荐理由: 社交关系通常被用来提高推荐质量,现有的社交推荐模型大多利用对偶关系来挖掘潜在的用户偏好。然而,现实生活中用户之间的互动非常复杂。Hypergraph提供了一种自然的方式来模拟复杂的高阶关系,而其在社交推荐中的潜力却未被充分挖掘。在本文中,作者填补了这一空白,提出了一种多通道超图卷积网络,以利用高阶用户关系来增强社交推荐。从技术上讲,网络中的每个通道都编码一个超图,通过超图卷积来描述一个常见的高阶用户关系模式。通过聚合由多个渠道学习到的嵌入,作者获得全面的用户表征来生成推荐结果。然而,聚合操作也可能会掩盖不同类型高阶连接信息的固有特征。为了弥补聚合损失,该工作创新性地将自监督学习融入到超图卷积网络的训练中,重新获得连接信息。在多个真实世界数据集上的实验结果表明,所提出的模型优于SOTA方法,同时消融研究验证了多通道设置和自监督任务的有效性。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

AMiner,一个具有认知智能的学术搜索引擎:https://www.aminer.cn/

#AMiner# #论文#

猜你喜欢

转载自blog.csdn.net/AI_Conf/article/details/115188524
今日推荐