摘要: 2024.3.14 Transformer框架+编码器+解码器 预训练 >NNLM >word2vec >ElMo >Attention NLP(自然语言处理)中预训练的目的,其实就是为了生成词向量 transformer其实就是attention的一个堆叠 Transformer 的整体框架 [T 阅读全文
posted @ 2024-03-14 21:30 adam12138 阅读(878) 评论(0) 推荐(0)