学习笔记(49)- GPT-2模型的服务部署

  1. 到这里注册账号https://core.telegram.org/bots
  2. https://github.com/polakowo/gpt2bot,按照这个仓库部署即可。可docker,可本地。

依赖

numpy==1.16.4
torch==1.2.0
transformers==2.3.0
python-telegram-bot==12.3.0

我没有部署。

训练模型使用的数据是Reddit。所以应该不支持中文。

transformers提供了gpt模型的下载,https://huggingface.co/models。可直接下载使用

猜你喜欢

转载自www.cnblogs.com/xuehuiping/p/12836470.html