会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
千心的无名小站
兴趣使然的无名小站 Was wir tun, mag klein sein, aber es hat einen gewissen Charakter der Beständigkeit.
博客园
首页
新随笔
联系
订阅
管理
2022年1月11日
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
摘要: 本文是对BERT本文的翻译和名词透析 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding Jacob Devlin Ming-Wei Chang Kenton Lee Kristina To
阅读全文
posted @ 2022-01-11 20:06 千心
阅读(76)
评论(0)
推荐(0)
公告