摘要:
基于稀疏性和位置编码这两个重要概念设计Graph Transformer架构 图的稀疏性 在NLP中,Transformer在词语特征表示时作为全注意力,也就是说,Transformer把一个句子中的词语当作全连接图看待。在NLP中这么设计有两个理由: 很难找到一个句子中单词之间有意义的稀疏联系。因 阅读全文
posted @ 2023-03-09 19:34
programmer_媛
阅读(699)
评论(0)
推荐(0)
2023年3月9日