学习笔记(49)- GPT-2模型的服务部署

  1. 到这里注册账号https://core.telegram.org/bots
  2. https://github.com/polakowo/gpt2bot,按照这个仓库部署即可。可docker,可本地。

依赖

numpy==1.16.4
torch==1.2.0
transformers==2.3.0
python-telegram-bot==12.3.0

我没有部署。

训练模型使用的数据是Reddit。所以应该不支持中文。

transformers提供了gpt模型的下载,https://huggingface.co/models。可直接下载使用

posted on 2020-05-28 14:52  宋岳庭  阅读(1092)  评论(0编辑  收藏  举报