[NL系列] RNN & LSTM 网络结构及应用
http://www.jianshu.com/p/f3bde26febed/
这篇是 The Unreasonable Effectiveness of Recurrent Neural Networks(by Andrej Karpathy,Stanford的Li Fei-Fei的博士生。文章介绍了RNN和LSTM,同时也介绍了RNN取得的各种瞩目成果。)以及Understanding LSTM Networks(by Chris Olah)的阅读笔记。网上有很多翻译的版本:《递归神经网络不可思议的有效性》(虽然有些地方译得不是很准确)以及《[译] 理解 LSTM 网络》,可以参考。
循环神经网络 (RNN)
CNN等传统神经网络的局限在于:将固定大小的向量作为输入(比如一张图片),然后输出一个固定大小的向量(比如不同分类的概率)。不仅如此,CNN还按照固定的计算步骤(比如模型中层的数量)来实现这样的输入输出。这样的神经网络没有持久性:假设你希望对电影中每一帧的事件类型进行分类,传统的神经网络就没有办法使用电影中先前的事件推断后续的事件。
- RNN 是包含循环的网络,可以把信息从上一步传递到下一步。
- RNN允许信息的持久化,对当前的状态保留记忆(以隐变量的方式存在,也就是图中计算
h_{t}
需要用到h_{t-1}
的信息)。对于同一个RNN来说,其“A结构”(绿色部分)是固定的(共享一套参数,毕竟是从循环展开来的啊肯定是一样的)。
- RNN允许人们对向量序列进行操作(无论是输入还是输出)。
上图中的5个例子从左到右分别是:
- 没有使用RNN,从固定大小的输入得到固定大小输出(比如图像分类)
- 序列输出(比如图片描述,输入一张图片输出一段文字序列)
- 序列输入(比如情感分析,输入一段文字然后将它分类成积极或者消极情感)
- 序列输入和序列输出(比如机器翻译)
- 同步序列输入输出(比如视频分类,对视频中每一帧打标签)
Long Short Term Memory 网络 (LSTM)
引入
因为RNN的信息只能传递给相邻的后继者(从循环展开之后的表示来看),因此当输出与其相关的输入信息相隔较近的时候,普通的RNN是可以胜任的。
而当这个间隔很长的时候,虽然理论上RNN是可以处理这种长期依赖 (Long Dependencies) 的问题,但是实践中并没有成功。Bengio, et al. (1994)等人对该问题进行了深入的研究,他们发现了使训练 RNN 变得非常困难的根本原因(梯度消失/梯度爆炸)。
因此,Hochreiter & Schmidhuber (1997)提出了Long Short Term Memory 网络 (LSTM),并在近期被Alex Graves进行了改良和推广。
LSTM step by step
LSTM的网络结构大体上和传统RNN比较相似,但是重复结构A里面的东西要复杂一些,我们就一步一步来看。
首先,LSTM中最重要的核心思想就是所谓的cell state,也就是贯穿每个重复结构的上面这条flow(哇哦是不是想到TensorFlow了)。
这条flow其实就承载着之前所有状态的信息,每当flow流经一个重复结构A的时候,都会有相应的操作来决定舍弃什么旧的信息以及添加什么新的信息。对cell state的信息增减进行控制的结构称为门 (gates)。一个LSTM block中有三个这样的门,分别是遗忘门 (forget gate)、输入门 (input gate)、输出门 (output gate)。
遗忘门 (forget gate)
遗忘门决定了要从cell state中舍弃什么信息。其通过输入上一状态的输出h_{t-1}
、当前状态输入信息X_{t}
到一个Sigmoid函数中,产生一个介于0到1之间的数值,与cell state相乘之后来确定舍弃(保留)多少信息。0 表示“完全舍弃”,1 表示“完全保留”。
输入门 (input gate)
输入门决定了要往cell state中保存什么新的信息。其通过输入上一状态的输出h_{t-1}
、当前状态输入信息X_{t}
到一个Sigmoid函数中,产生一个介于0到1之间的数值i_{t}
来确定我们需要保留多少的新信息。同时,一个tanh层会通过上一状态的输出h_{t-1}
、当前状态输入信息X_{t}
来得到一个将要加入到cell state中的“候选新信息”~C_{t}
。将刚才得到的数值i_{t}
与“候选新信息”~C_{t}
相乘得到我们真正要加入到cell state中的更新信息。
输出门 (output gate)
输出门决定了要从cell state中输出什么信息。与之前类似,会先有一个Sigmoid函数产生一个介于0到1之间的数值o_{t}
来确定我们需要输出多少cell state中的信息。cell state的信息在与o_{t}
相乘时首先会经过一个tanh层进行“激活”(非线性变换)。得到的就是这个LSTM block的输出信息h_{t}
。
注意:一个LSTM block中可能有不止一个cell state(也就是最上面的
C_{t}
会有不止一条),它们共享输入、输出和遗忘门:S memory cells sharing the same input, output and forget gates form a structure called "a memory cell block of size S". This means that each cell might hold a different value in its memory, but the memory within the block is written to, read from and erased all at once. Memory cell blocks facilitate information storage as with conventional neural nets, it is not so easy to code a distributed input within a single cell. Since each memory cell block has as many gate units as a single memory cell (namely two), the block architecture can be even slightly more efficient. A memory cell block of size 1 is just a simple memory cell.
增加网络层数 Going Deep
既然LSTM(RNN)是神经网络,我们自然可以把一个个LSTM叠加起来进行深度学习。比如,我们可以用两个独立的LSTM来构造两层的循环神经网络:一个LSTM接收输入向量,另一个将前一个LSTM的输出作为输入。这两个LSTM没有本质区别——这不外乎就是向量的输入输出而已,而且在反向传播过程中每个模块都伴随着梯度操作。
LSTM 的变体
LSTM在实验和研究过程中发展出了很多的变体,由Schuster & Paliwal (1997)提出的双向RNN的思想和原始版RNN有些许不同,它考虑到当前的输出不止和之前的序列元素有关系,还和之后的序列元素也是有关系的。其实可以把BRNN看做2个RNN叠加。输出的结果就是基于2个RNN的隐状态计算得到的。
由 Gers & Schmidhuber (2000) 提出的网络增加了 “peephole connection”,把当前的cell state也作为输入给Sigmoid函数。
由 Cho, et al. (2014) 提出的Gated Recurrent Unit (GRU)是现在相当流行的一种LSTM变体。它首先将cell state和hidden state进行了合并,然后将原来的三个门替换为了更新门 (update gate)(图中的z_{t}
)和重置门 (reset gate)(图中的r_{t}
)。重置门用来决定新的hidden state~h_{t}
中上一hidden stateh_{t-1}
所占的比重,新的hidden state~h_{t}
由重置门“过滤”后的h_{t-1}
和输入x_{t}
经过tanh层激活(非线性变换)后得到;更新门用来决定当前hidden stateh_{t}
中新的hidden state~h_{t}
所占的比重,控制了最后输出的h_{t}
中~h_{t}
和h_{t-1}
所占的比例。
除此之外的LSTM变体还有很多,如Yao, et al. (2015) 提出的 Depth Gated RNN。还有用一些完全不同的观点来解决长期依赖的问题,如Koutnik, et al. (2014) 提出的 Clockwork RNN。
LSTM 模块的功能
也有很多人关注与LSTM各种变体的对比、以及LSTM内部的各个模块对于训练效果到底有什么养的影响上。Jozefowicz, et al. (2015) 在超过 1 万种 RNN 架构上进行了测试,发现一些架构在某些任务上也取得了比 LSTM 更好的结果。
Greff, et al. (2015) 探讨了基于Vanilla LSTM (Graves & Schmidhube (2005))之上的8个变体,并比较了它们之间的性能差异,包括:
- 没有输入门 (No Input Gate, NIG)
- 没有遗忘门 (No Forget Gate, NFG)
- 没有输出门 (No Output Gate, NOG)
- 没有输入激活函数 (No Input Activation Function, NIAF) (也就是没有输入门对应的tanh层)
- 没有输出激活函数 (No Output Activation Function, NOAF) (也就是没有输出门对应的tanh层)
- 没有"peephole connection" (No Peepholes, NP)
- 遗忘门与输出门结合 (Coupled Input and Forget Gate, CIFG)
- Full Gate Recurrence (FGR)
The FGR variant adds recurrent connections between all the gates (nine additional recurrent weight matrices).
文章使用了将这8种LSTM变体与基本的Vanilla LSTM在TIMIT语音识别、手写字符识别、复调音乐建模三个应用中的表现情况进行了比较,得出了几个有趣的结论:
- Vanilla LSTM在所有的应用中都有良好的表现,其他8个变体并没有什么性能提升;
- 将遗忘门与输出门结合 (Coupled Input and Forget Gate, CIFG)以及没有"peephole connection" (No Peepholes, NP)简化了LSTM的结构,而且并不会对结果产生太大影响;
- 遗忘门和输出门是LSTM结构最重要的两个部分,其中遗忘门对LSTM的性能影响十分关键,输出门 is necessary whenever the cell state is unbounded (用来限制输出结果的边界);
- 学习率和隐含层个数是LSTM最主要的调节参数,而动量因子被发现影响不大,高斯噪音的引入对TIMIT实验性能提升显著,而对于另外两个实验则会带来反效果;
- 超参分析表明学习率与隐含层个数之间并没有什么关系,因此可以独立调参,另外,学习率可以先使用一个小的网络结构进行校准,这样可以节省很多时间。
RNN/LSTM 的应用
非序列情况下的RNN
即使输入输出没有涉及到向量序列,RNN仍然可以用序列的方式来进行处理。当输入是固定的向量(门牌图片)时,RNN也可以取得很好的效果。
字符级别语言模型
Andrej Karpathy用LSTM训练了一个字符级别的语言模型,具体来说就是向LSTM输入大量的文本数据,然后在一个序列中给定一个前面的字符,用它来建立计算这个序列下一个字符概率的模型。这样就可以一个字符一个字符的生成文本。在博客The Unreasonable Effectiveness of Recurrent Neural Networks中,他展示了使用这个网络训练的5个例子(包括模仿莎士比亚的作品、维基百科页面、人名等等),分别使用了不同的数据集来训练并让其按照学习结果自动按字符生成文本,都得到了不错的效果。
值得一提的是,使用该网络还可以训练代数几何的论文——使用LaTeX源文件进行训练,可以得到像模像样的代数几何文章!这充分说明了该模型在学习复杂句法结构方面表现得相当不错。Andrej Karpathy甚至训练了一个自动写Linux代码的LSTM网络,生成的结果长得还真是有模有样——很少有语法错误,并且对于code block的控制("{}"和"[]"等等)、缩进格式都很令人满意。
一个简单的RNN网络模型和训练过程如下图,这个例子的代码见这里。
图示例子中假设整个字典只有"h","e","l","o"四个字母,使用 1-of-k 进行编码(即向量长度为4,分别代表"h","e","l","o")。模型使用文本"hello"训练一个RNN。若将"hello"视为一个训练序列,那么该序列实际上包含4个单独的训练样本,即
- "h"之后应该出现"e"
- "he"之后应该出现"l"
- "hel"之后应该出现"l"
- "hell"之后应该出现"o"
将"hell"作为训练序列输入该RNN后,输出向量的每一位代表当前输入对应的输出可能性大小。例如,对于输入"h",经过一次前向传播我们得到了输出"h"的可能性为1.0,输出"e"的可能性为2.2,输出"l"的可能性为-3.0,输出"o"的可能性为4.1。由于期望的输出结果是"e",因此我们希望调整输出向量中绿色的值使其变大,红色的值变小,这就是反向传播要做的事了。之后的训练过程就是不断的进行迭代,直至网络收敛。值得注意的是,字符"l"第一次输入时,得到的结果是"l",但是第二得到的结果是"o"。因此,这个RNN不能单独依赖于输入数据,必须使用它的循环连接来跟踪前文以达到准确结果。
# 迭代100次时
tyntd-iafhatawiaoihrdemot lytdws e ,tfti, astai f ogoh eoase rrranbyne 'nhthnee e
plia tklrgd t o idoe ns,smtt h ne etie h,hregtrs nigtike,aoaenns lng
# 迭代500次时
we counter. He stutn co des. His stanted out one ofler that concossions and was
to gearang reay Jotrets and with fre colt otf paitt thin wall. Which das stimn
# 迭代2000次时
"Why do what that day," replied Natasha, and wishing to himself the fact the
princess, Princess Mary was easier, fed in had oftened him.
Pierre aking his soul came to the packs and drove up his father-in-law women.
通过模型每次迭代的中间输出结果我们也可以看到模型的学习过程:从“单词-空格”结构开始,到学习短的单词,单词长度逐渐增加,再到学习覆盖大段文本的“主题”(这就体现出Longer-term dependencies了)。
Others
在自然语言处理(NLP)领域,RNN已经可以做语音识别、机器翻译、生成手写字符,以及构建强大的语言模型 (Sutskever et al.), (Graves),(Mikolov et al.)(字符级别和单词级别的都有)。
作者:ToeKnee
链接:http://www.jianshu.com/p/f3bde26febed/
來源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。