摘要:
2024.3.14 Transformer框架+编码器+解码器 预训练 >NNLM >word2vec >ElMo >Attention NLP(自然语言处理)中预训练的目的,其实就是为了生成词向量 transformer其实就是attention的一个堆叠 Transformer 的整体框架 [T 阅读全文
posted @ 2024-03-14 21:30
adam12138
阅读(878)
评论(0)
推荐(0)
浙公网安备 33010602011771号