会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
kunrenzhilu
博客园
首页
新随笔
联系
订阅
管理
2023年3月12日
chatgpt系列读后感
摘要: 资料来源:李沐谈gpt1-3 GPT1: 用transformer的decoder作为base模型在unlabel的模型上做pretraining,然后放到下游任务做finetuning。从时间上来讲是第一个大预训练NLP模型,比bert要早几个月。为了做通用预训练模型,有两个事情要做: 1. 采用
阅读全文
posted @ 2023-03-12 17:14 欧阳维斯诺夫斯基
阅读(579)
评论(0)
推荐(0)
公告