12 2018 档案
摘要:本文翻译自Jay Alammar的博客 "The Illustrated BERT, ELMo, and co. (How NLP Cracked Transfer Learning)" [TOC] 2018年是机器学习模型处理文本(更准确地说,是自然语言处理或简称NLP)的转折点。我们对以何种方式
阅读全文
摘要:本文翻译自 "Jay Alammar的博文The Illustrated Transformer" [TOC] 注意力是一个有助于提高神经机器翻译模型性能的机制。在这篇文章中,我们将着眼于Transformer——一个利用注意力来提高模型训练速度的模型。Transformer在特定任务中的性能优于G
阅读全文
摘要:本文翻译自:博文 "What will happen when we apply CapsNet with dynamic routing to NLP?" 本文要讲的是研究人员在应用CapsNet(胶囊网络)进行文本分类时发现了什么。我们需要了解下列的网络层次以及相应的算法。 N gram卷积层
阅读全文

浙公网安备 33010602011771号