KDD2023丨大模型ペーパーコレクション

ACM SIGKDD(International Conference on Data Mining and Knowledge Discovery、以下KDD)は1989年に始まり、データマイニング分野における最古かつ最大の国際トップ学術会議であり、パッケージなどのコンセプトに関する会議には多くの参加者が集まります。データマイニング、機械学習、ビッグデータ、人工知能の分野で毎年多くの学者や専門家が研究しています。

AMiner は AI テクノロジーを通じて、KDD2023 に含まれるカンファレンス ペーパーを整理しました。今日は、大きなモデルのテーマ ペーパーを共有します。(紙面の都合上、この記事では一部の論文のみを掲載しています。クリックして原文を読むとKDDサミットのページに直接移動し、すべての論文をご覧いただけます)

1.WebGLM: 人間の好みを考慮した効率的な Web 拡張質問応答システムに向けて

https://www.miner.cn/pub/64893b17d68f896efa9826b7/

2.抗原特異的計算抗体設計のための抗体言語モデルの事前トレーニング

https://www.miner.cn/pub/64af9a063fda6d7f065a6c00/

3.LightToken: 事前トレーニングされた言語モデルのための、タスクおよびモデルに依存しない軽量トークン埋め込みフレームワーク

https://www.miner.cn/pub/64af99fd3fda6d7f065a62f2/

4.JiuZhang 2.0: マルチタスクの数学的問題解決のための事前トレーニング済みの統一中国語言語モデル

https://www.miner.cn/pub/64af9a043fda6d7f065a6a45/

5.BERT4CTR: 事前トレーニングされた言語モデルと非テキスト機能を組み合わせて CTR 予測を行う効率的なフレームワーク

https://www.miner.cn/pub/64af9a043fda6d7f065a69f8/

6.RecruitPro: インテリジェントな採用のためのスキルを意識​​した即時学習を備えた事前トレーニング済み言語モデル

https://www.miner.cn/pub/64af9a053fda6d7f065a6b09/

7.QUERT: 旅行ドメイン検索におけるクエリ理解のための言語モデルの継続的な事前トレーニング

https://www.miner.cn/pub/6487e9fad68f896efa482b50/

8.分子特性予測のための自動3D事前トレーニング

https://www.miner.cn/pub/64893b17d68f896efa982588/

9.GLM-Dialog: 知識に基づいた対話生成のためのノイズ耐性のある事前トレーニング

https://www.miner.cn/pub/63fec3cd90e50fcafdd70322/

10.CodeGeeX: HumanEval-X での多言語ベンチマークによるコード生成用の事前トレーニング済みモデル

https://www.miner.cn/pub/64264f7b90e50fcafd68e145/

11.大規模なグラフ コーパスでのグラフ認識言語モデルの事前トレーニングは、複数のグラフ アプリケーションに役立ちます

https://www.miner.cn/pub/647eaf51d68f896efad41cdb/

12. 必要なのはテキストだけです: 逐次推薦のための言語表現の学習

https://www.miner.cn/pub/646d863cd68f896efa09f2e5/

ChatPaper を使用して文献を読むにはどうすればよいですか?
より多くの研究者が文献知識をより効率的に入手できるようにするために、AMiner は GLM-130B 大型モデルの機能に基づいて Chatpaper を開発しました。これにより、研究者は論文の検索と読み取りの効率を迅速に向上させ、この分野の最新の研究傾向を入手し、科学的な研究を行うことができます。研究作業がより簡単になります。

ここに画像の説明を挿入

ChatPaper は、検索、読み取り、知識の質疑応答を統合した会話型のプライベート ナレッジ ベースであり、AMiner はテクノロジーの力を通じて、誰もがより効率的に知識を獲得できることを望んでいます。
ChatPaper: https://www.miner.cn/chat/g

KDDサミットページ:https://www.miner.cn/conf/search/KDD

おすすめ

転載: blog.csdn.net/AI_Conf/article/details/131935958