随笔分类 -  自然语言处理

GRU神经网络
摘要:1、GRU概述 GRU是LSTM网络的一种效果很好的变体,它较LSTM网络的结构更加简单,而且效果也很好,因此也是当前非常流形的一种网络。GRU既然是LSTM的变体,因此也是可以解决RNN网络中的长依赖问题。 在LSTM中引入了三个门函数:输入门、遗忘门和输出门来控制输入值、记忆值和输出值。而在GR 阅读全文

posted @ 2019-11-04 09:09 紫冰凝 阅读(6577) 评论(0) 推荐(0)

seq2seq+attention解读
摘要:1什么是注意力机制? Attention是一种用于提升Encoder + Decoder模型的效果的机制。 2.Attention Mechanism原理 要介绍Attention Mechanism结构和原理,首先需要介绍下Seq2Seq模型的结构。Seq2Seq模型,想要解决的主要问题是,如何把 阅读全文

posted @ 2019-11-03 13:24 紫冰凝 阅读(2039) 评论(0) 推荐(0)