摘要:
原文:https://zybuluo.com/hanbingtao/note/626300 有时候把句子看做是词的序列是不够的,比如下面这句话『两个外语学院的学生』: 上图显示了这句话的两个不同的语法解析树。可以看出来这句话有歧义,不同的语法解析树则对应了不同的意思。一个是『两个外语学院的/学生』, 阅读全文
posted @ 2017-10-23 16:41
bonelee
阅读(758)
评论(0)
推荐(0)
摘要:
原文:https://zybuluo.com/hanbingtao/note/541458 循环神经网络也可以画成下面这个样子: 双向循环神经网络 对于语言模型来说,很多时候光看前面的词是不够的,比如下面这句话: 我的手机坏了,我打算____一部新手机。 可以想象,如果我们只看横线前面的词,手机坏了 阅读全文
posted @ 2017-10-23 16:39
bonelee
阅读(1379)
评论(1)
推荐(0)
摘要:
原文:https://www.zybuluo.com/hanbingtao/note/485480 写得非常好,可以细读 全连接网络 VS 卷积网络 全连接神经网络之所以不太适合图像识别任务,主要有以下几个方面的问题: 参数数量太多 考虑一个输入1000*1000像素的图片(一百万像素,现在已经不能 阅读全文
posted @ 2017-10-23 13:21
bonelee
阅读(12642)
评论(0)
推荐(0)
摘要:
原文:https://www.zybuluo.com/hanbingtao/note/476663 写得非常好,适合入门! 神经元 神经元和感知器本质上是一样的,只不过我们说感知器的时候,它的激活函数是阶跃函数;而当我们说神经元时,激活函数往往选择为sigmoid函数或tanh函数。如下图所示: 计 阅读全文
posted @ 2017-10-23 12:09
bonelee
阅读(4830)
评论(1)
推荐(1)
摘要:
摘自:https://zybuluo.com/hanbingtao/note/581764 写得非常好 见原文 长短时记忆网络的思路比较简单。原始RNN的隐藏层只有一个状态,即h,它对于短期的输入非常敏感。那么,假如我们再增加一个状态,即c,让它来保存长期的状态,那么问题不就解决了么?如下图所示: 阅读全文
posted @ 2017-10-23 10:34
bonelee
阅读(23326)
评论(0)
推荐(1)
摘要:
LSTM入门学习 摘自:http://blog.csdn.net/hjimce/article/details/51234311 下面先给出LSTM的网络结构图: 看到网络结构图好像很复杂的样子,其实不然,LSTM的网络结构图无非是为了显示其高大上而已,这其实也是一个稍微比RNN难那么一丁点的算法。 阅读全文
posted @ 2017-10-23 10:08
bonelee
阅读(3907)
评论(0)
推荐(0)
摘要:
摘自:http://www.voidcn.com/article/p-ntafyhkn-zc.html (二)LSTM模型 1.长短期记忆模型(long-short term memory)是一种特殊的RNN模型,是为了解决RNN模型梯度弥散的问题而提出的;在传统的RNN中,训练算法使用的是BPTT 阅读全文
posted @ 2017-10-23 09:47
bonelee
阅读(4459)
评论(0)
推荐(0)