摘要:
0、引言 BERT(Bidirectional Encoder Representations from Transformers)自从谷歌提出就一直大热。首先,它在自然语言处理(NLP)的11个任务中均有较大程度性能提升;其次,BERT在无监督场景下结合预训练能够最大化地利用文本数据,同时对不同场 阅读全文
posted @ 2020-08-11 21:40
Joshua王子
阅读(257)
评论(0)
推荐(0)
浙公网安备 33010602011771号