Harukaze

 

2021年8月4日

【论文阅读】Attention Is All Y ou Need[NIPS2017]

摘要: 论文地址:https://arxiv.org/abs/1706.03762 代码地址:https://github.com/ tensorflow/tensor2tensor Abstract 主导序列转导模型dominant sequence transduction models基于复杂的递归或 阅读全文

posted @ 2021-08-04 23:50 Harukaze 阅读(276) 评论(0) 推荐(0)

【论文阅读】Deep contextualized word representations[NAACL2018]

摘要: 论文地址:https://aclanthology.org/N18-1202/ 代码地址:http://allennlp.org/elmo Abstract 我们介绍了一种新型的深层语境化的词语表示法,它对(1)词语使用的复杂特征(如语法和语义)和(2)这些使用如何在不同的语言语境中变化(即,对多义 阅读全文

posted @ 2021-08-04 09:57 Harukaze 阅读(292) 评论(0) 推荐(0)

导航