摘要: 介绍完seq2seq+attention(Simple to seq2seq And attention | Ripshun Blog),我们来构建一个用pytorch写的模型.第一步:构建Encoder:代码:class encode(nn.Module): def __init__(sel... 阅读全文
posted @ 2020-11-23 21:17 ripking 阅读(27) 评论(0) 推荐(0)
摘要: seq2seq简介Seq2seq将输入序列转换为输出序列。它通过利用循环神经网络(递归神经网络)或更常用的LSTM、GRU网络来避免梯度消失问题。当前项的内容总来源于前一步的输出。Seq2seq主要由一个编码器和一个解码器。 编码器将输入转换为一个隐藏状态向量,其中包含输入项的内容。 解码器进行相... 阅读全文
posted @ 2020-11-23 20:08 ripking 阅读(13) 评论(0) 推荐(0)
摘要: 准备了解fasttext需要先从其原理涉及的知识开始。N-gram和cbow(参考:Word2vec And Doc2vec – 文本向量化 | Ripshun Blog)层次softmax层次softmox(Hierarchical Softmax)在前文章中我介绍了一些关于word embedd... 阅读全文
posted @ 2020-11-23 17:48 ripking 阅读(177) 评论(0) 推荐(0)