2018年4月24日

完全图解RNN、RNN变体、Seq2Seq、Attention机制

摘要: 完全图解RNN、RNN变体、Seq2Seq、Attention机制 本文主要是利用图片的形式,详细地介绍了经典的RNN、RNN几个重要变体,以及Seq2Seq模型、Attention机制。希望这篇文章能够提供一个全新的视角,帮助初学者更好地入门。 一、从单层网络谈起 在学习RNN之前,首先要了解一下 阅读全文

posted @ 2018-04-24 19:37 Maddock 阅读(731) 评论(0) 推荐(0) 编辑

机器学习中的线性和非线性判断

摘要: 机器学习中的线性和非线性判断 说到线性和非线性,你的直观理解是不是这样: 但这种直观理解其实不能回答下面这个问题: 那么为什么卷积操作是线性的,而ReLU是非线性的? 很多人对线性的定义不是很清楚。 实际上,线性的定义是: F(ax+y) = aF(x) + F(y), 其中x、y为变量而a为常数。 阅读全文

posted @ 2018-04-24 17:05 Maddock 阅读(1720) 评论(0) 推荐(0) 编辑

导航