会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
zhuango
博客园
首页
新随笔
联系
订阅
管理
11 2021 档案
prompt-tuning paper reading
摘要:NLP目前广泛使用预训练+fine-tuning的套路,而不同任务上做fine-tuning会得到不同的参数集合,在实际应用中就需要存放不同版本的weights,比如使用BERT在四个任务上做fine-tuning,就需要存放4个BERT weights,空间开销非常大,降低可扩展性。 已有解决fi
阅读全文
posted @
2021-11-07 23:02
0xAC
阅读(676)
评论(0)
推荐(0)
公告