T5: Text-To-Text Transfer Transformer

总而言之就是一个集NLP之大成者的预训练模型,也只有Google这种土豪公司才玩得起了。。

论文:

Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer

代码:

https://github.com/google-research/text-to-text-transfer-transformer

推荐博文:

T5 模型:NLP Text-to-Text 预训练模型超大规模探索

T5: Text-To-Text Transfer Transformer

发布了74 篇原创文章 · 获赞 17 · 访问量 2万+

猜你喜欢

转载自blog.csdn.net/sinat_25394043/article/details/104180276
今日推荐