KDD2023丨预训练论文合集

ACM SIGKDD(国际数据挖掘与知识发现大会,简称KDD)会议始于1989年,是数据挖掘领域历史最悠久、规模最大的国际顶级学术会议,也是首个引入大数据、数据科学、预测分析、众包等概念的会议,每年吸引了大量数据挖掘、机器学习、大数据和人工智能等领域的研究学者、从业人员参与。

AMiner通过AI技术,对 KDD2023 收录的会议论文进行了分类整理,今日分享的是预训练主题论文!(由于篇幅关系,本篇只展现部分论文,点击阅读原文可直达KDD顶会页面查看所有论文)

1.QUERT: Continual Pre-training of Language Model for Query Understanding in Travel Domain Search

https://www.aminer.cn/pub/6487e9fad68f896efa482b50/

2.Automated 3D Pre-Training for Molecular Property Prediction

https://www.aminer.cn/pub/64893b17d68f896efa982588/

3.Pre-training Antibody Language Models for Antigen-Specific Computational Antibody Design

https://www.aminer.cn/pub/64af9a063fda6d7f065a6c00/

4.Joint Pre-training and Local Re-training: Transferable Representation Learning on Multi-source Knowledge Graphs

https://www.aminer.cn/pub/647eaf51d68f896efad41d32/

5.GetPt: Graph-enhanced General Table Pre-training with Alternate Attention Network

https://www.aminer.cn/pub/64af99fd3fda6d7f065a6302/

6.Empower Post-hoc Graph Explanations with Information Bottleneck: A Pre-training and Fine-tuning Perspective

https://www.aminer.cn/pub/64af99fd3fda6d7f065a6311/

7.Dual-view Molecular Pre-training

https://www.aminer.cn/pub/64af9a063fda6d7f065a6bb3/

8.S2phere: Semi-Supervised Pre-training for Web Search over Heterogeneous Learning to Rank Data

https://www.aminer.cn/pub/64af9a003fda6d7f065a669a/


如何使用ChatPaper读文献?

为了让更多科研人更高效的获取文献知识,AMiner基于GLM-130B大模型能力,开发了Chatpaper,帮助科研人快速提高检索、阅读论文效率,获取最新领域研究动态,让科研工作更加游刃有余。
在这里插入图片描述

ChatPaper是一款集检索、阅读、知识问答于一体的对话式私有知识库,AMiner希望通过技术的力量,让大家更加高效地获取知识。

ChatPaper:https://www.aminer.cn/chat/g

猜你喜欢

转载自blog.csdn.net/AI_Conf/article/details/131913603
今日推荐