摘要:
原文:https://www.zybuluo.com/hanbingtao/note/476663 写得非常好,适合入门! 神经元 神经元和感知器本质上是一样的,只不过我们说感知器的时候,它的激活函数是阶跃函数;而当我们说神经元时,激活函数往往选择为sigmoid函数或tanh函数。如下图所示: 计 阅读全文
posted @ 2017-10-23 12:09
bonelee
阅读(4836)
评论(1)
推荐(1)
摘要:
摘自:https://zybuluo.com/hanbingtao/note/581764 写得非常好 见原文 长短时记忆网络的思路比较简单。原始RNN的隐藏层只有一个状态,即h,它对于短期的输入非常敏感。那么,假如我们再增加一个状态,即c,让它来保存长期的状态,那么问题不就解决了么?如下图所示: 阅读全文
posted @ 2017-10-23 10:34
bonelee
阅读(23340)
评论(0)
推荐(1)
摘要:
LSTM入门学习 摘自:http://blog.csdn.net/hjimce/article/details/51234311 下面先给出LSTM的网络结构图: 看到网络结构图好像很复杂的样子,其实不然,LSTM的网络结构图无非是为了显示其高大上而已,这其实也是一个稍微比RNN难那么一丁点的算法。 阅读全文
posted @ 2017-10-23 10:08
bonelee
阅读(3920)
评论(0)
推荐(0)
摘要:
摘自:http://www.voidcn.com/article/p-ntafyhkn-zc.html (二)LSTM模型 1.长短期记忆模型(long-short term memory)是一种特殊的RNN模型,是为了解决RNN模型梯度弥散的问题而提出的;在传统的RNN中,训练算法使用的是BPTT 阅读全文
posted @ 2017-10-23 09:47
bonelee
阅读(4490)
评论(0)
推荐(0)

浙公网安备 33010602011771号