摘要:
Google 2017年的论文 Attention is all you need 阐释了什么叫做大道至简!该论文提出了Transformer模型,完全基于Attention mechanism,抛弃了传统的RNN和CNN。 我们根据论文的结构图,一步一步使用 PyTorch 实现这个Transfo 阅读全文
posted @ 2019-07-29 10:16
交流_QQ_2240410488
阅读(1872)
评论(0)
推荐(0)
摘要:
https://daiwk.github.io/posts/nlp-bert.html 目录 概述 BERT 模型架构 Input Representation Pre-training Tasks Task #1: Masked LM Task #2: Next Sentence Predicti 阅读全文
posted @ 2019-07-29 10:14
交流_QQ_2240410488
阅读(1838)
评论(0)
推荐(0)

浙公网安备 33010602011771号