Fork me on GitHub

随笔分类 -  neural network

Long short term memory原理
该文被密码保护。
posted @ 2014-02-11 15:08 huashiyiqike 阅读(3) 评论(0) 推荐(0)
BPTT for multiple layers
摘要:单层rnn的bptt:每一个时间点的误差进行反向传播,然后将delta求和,更新本层weight。多层时:1、时间1:T 分层计算activation。2、时间T:1 利用本时间点的误差,分层计算weight delta,和之前时间点的计算结果相加。最后得到的delta用来更新weight。 阅读全文
posted @ 2014-02-07 16:18 huashiyiqike 阅读(4688) 评论(0) 推荐(0)