本文主要以模型被提出的时间为顺序,系统性介绍各种预训练模型的理论(尤其是相比之前工作的创新点)、调用方法和表现效果。
最近更新时间:2023.5.17
最早更新时间:2023.5.10
- Bert
- Roberta
- XLNet
- Longformer
序列长度必须是512的整数倍1- 中文版:ValkyriaLenneth/Longformer_ZH
tokenizer必须要用BertTokenizer2
- 中文版:ValkyriaLenneth/Longformer_ZH
- UniLM
【论文解读】UniLM:一种既能阅读又能自动生成的预训练模型 - SciBert
- RPT
- NEZHA
- 百度系:ERNIE-百度,文心一言
- ERNIE-清华
- DistilledBert
- Bart
- CPT
- Pegasus
- OpenAI系
ChatGPT 3.5 API的调用不全指南(持续更新ing…)- GPT-2
- GPT-3
- GPT-3.5
- ChatGPT
- InstructGPT
- CodeX
- Bard