几句话总结一个算法之RNN、LSTM和GRU
摘要:RNN 一般神经网络隐层的计算是h=g(w * x),其中g是激活函数,相比于一般神经网络,RNN需要考虑之前序列的信息,因此它的隐藏h的计算除了当前输入还要考虑上一个状态的隐藏,h=g(w*x+w'*h'),其中h'是上一次计算的隐层,可见信息传递是通过隐层完成的。 LSTM 有上面普通RNN可以
阅读全文
posted @ 2019-06-25 12:01
posted @ 2019-06-25 12:01
posted @ 2019-06-11 17:30
posted @ 2019-06-11 12:07
posted @ 2019-06-11 10:49