随笔分类 -  深度学习系列

摘要:那么为什么会出现梯度消失的现象呢?因为通常神经网络所用的激活函数是sigmoid函数,这个函数有个特点,就是能将负无穷到正无穷的数映射到0和1之间,并且对这个函数求导的结果是f′(x)=f(x)(1−f(x))。因此两个0到1之间的数相乘,得到的结果就会变得很小了。神经网络的反向传播是逐层对函数偏导 阅读全文
posted @ 2018-01-02 15:06 hank的DL之路 阅读(20090) 评论(1) 推荐(0)
摘要:RNN,LSTM,seq2seq等模型广泛用于自然语言处理以及回归预测,本期详解seq2seq模型以及attention机制的原理以及在回归预测方向的运用。 阅读全文
posted @ 2017-11-14 18:49 hank的DL之路 阅读(12956) 评论(0) 推荐(0)