会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
行者AI
为游戏插上人工智能的翅膀
博客园
首页
新随笔
联系
订阅
管理
2021年4月1日
文本分类模型中的“蒸”功夫
摘要: 本文首发于:行者AI 2018年Bert的横空出世给自然语言处理带来了巨大的突破,Bert及其衍生模型在多个文本处理下游任务中达到了SOTA的结果。但是这样的提升是有一定代价的,其中之一就是计算量的大幅增长。 BERT-base模型是由12层Transformer构成,模型有大约1亿参数参与运算,而
阅读全文
posted @ 2021-04-01 16:24 行者AI
阅读(292)
评论(0)
推荐(0)
公告