06 2019 档案

摘要:RNN title: notation rnn是squenece2squence的model, 如果我不用signspeaker的方法把动作切成小片的话, 似乎rnn对我的意义不大,我是将squence2one的应用。 有点像video里面的活动识别问题,输入一个序列输出1个类别 title: no 阅读全文
posted @ 2019-06-18 09:15 zherlock 阅读(150) 评论(0) 推荐(0)
摘要:CNN 第一周: title: edge detection example 卷积核在边缘检测中的应用,可解释,卷积核的设计可以找到像素列突变的位置 把人为选择的卷积核参数,改为学习参数,可以学到更多的特征 title: padding n * n图片,k*k卷积核,输出图片是( n - k + 1 阅读全文
posted @ 2019-06-16 22:02 zherlock 阅读(183) 评论(0) 推荐(0)
摘要:tf的特征就是,所有东西都是操作,在run之前,都是保存了操作,实际run之后才出现值。 这也符合变量的性质把 tf.cinstant 创建标量矩阵 tf有一套矩阵运算操作,, #Session: 用来进行执行操作 sess = tf.Session() res = sess.run(某个操作) s 阅读全文
posted @ 2019-06-09 12:27 zherlock 阅读(160) 评论(0) 推荐(0)
摘要:恢复内容开始 title: why batch norm work 没太理解 title: softmax regression 多分类问题,输出层变成一个n维向量,有几个类就几维,每一个元素对应属于这个类的概率 softmax激活函数,挺简单的啊 softmax这一层,本身是划分线性边界的 tit 阅读全文
posted @ 2019-06-04 17:13 zherlock 阅读(143) 评论(0) 推荐(0)
摘要:恢复内容开始 Softmax函数,或称归一化指数函数 是逻辑函数的一种推广。它能将一个含任意实数的K维向量 “压缩”到另一个K维实向量 中,使得每一个元素的范围都在之间,并且所有元素的和为1。该函数的形式通常按下面的式子给出: for j = 1, …, K. wiki的资料看完了,就感觉softm 阅读全文
posted @ 2019-06-02 18:32 zherlock 阅读(287) 评论(0) 推荐(0)