09 2019 档案

摘要:如图,为使用到的公式,信息熵表明样本的混乱程度,增益表示熵减少了,即样本开始分类,增益率是为了平衡增益准则对可取值较多的属性的偏好,同时增益率带来了对可取值偏小的属性的偏好,实际中,先用增益进行筛选,选取大于增益平均值的,然后再选取其中增益率最高的。 以下代码纯粹手写,未参考其他人代码,如果问题,请 阅读全文
posted @ 2019-09-30 00:38 我的锅 阅读(1217) 评论(1) 推荐(1)
摘要:关于word2vec的理解,推荐文章https://www.cnblogs.com/guoyaohua/p/9240336.html 代码参考https://github.com/eecrazy/word2vec_chinese_annotation 我在其基础上修改了错误的部分,并添加了一些注释。 阅读全文
posted @ 2019-09-28 18:05 我的锅 阅读(3193) 评论(0) 推荐(1)
摘要:注意力往往与encoder-decoder(seq2seq)框架搭在一起,假设我们编码前与解码后的序列如下: 编码时,我们将source通过非线性变换到中间语义: 则我们解码时,第i个输出为: 可以看到,不管i为多少,都是基于相同的中间语义C进行解码的,也就是说,我们的注意力对所有输出都是相同的。所 阅读全文
posted @ 2019-09-10 11:05 我的锅 阅读(11115) 评论(1) 推荐(2)