Transformer模型

Attention:

留坑,待填...

参考文献
概念:参考这里一文看懂 Attention
原理: Attention、Seq2Seq与交互式匹配(一)Attention、Seq2Seq与交互式匹配(二)
paper: https://arxiv.org/pdf/1508.04025.pdf

posted @ 2020-08-20 13:23  R=(1-sinθ)  阅读(111)  评论(0)    收藏  举报