RNN循环神经网络的理解

以下部分内容存在转载:

第一个词被转换成了机器可读的向量,然后 RNN 逐个处理向量序列。

640?wx_fmt=gif

处理时,RNN 将先前隐藏状态传递给序列的下一步。 而隐藏状态充当了神经网络记忆,它包含相关网络之前所见过的数据的信息。

640?wx_fmt=gif

让我们看看 RNN 的一个细胞,了解一下它如何计算隐藏状态。 首先,将输入和先前隐藏状态组合成向量, 该向量包含当前输入和先前输入的信息。 向量经过激活函数 tanh之后,输出的是新的隐藏状态或网络记忆。

640?wx_fmt=gif

 

激活函数 Tanh 用于帮助调节流经网络的值。 tanh 函数将数值始终限制在 -1 和 1 之间。

RNN适用于数据量较少,数据batch较短的例子中,对于batch较多,RNN无法对过去的特征进行记录,需要利用LSTM进行建模分析。RNN的优势是它内部的操作很少,但在适当的情形下(如短序列)运作的很好。 RNN 使用的计算资源比它的演化变体 LSTM 和 GRU 要少得多。

以上参考链接:https://blog.csdn.net/yingqubaifumei/article/details/100888147
后续会更新实例

posted @ 2021-11-23 16:39  爱吃牛牛的康康  阅读(66)  评论(0)    收藏  举报