摘要:
整理自:https://mp.weixin.qq.com/s/LGyNq3fRlsRSatu1lpFnnw 南大周志华老师的西瓜书—第四章 公式 信息增益是决策树ID3算法在进行特征切割时使用的划分准则,其物理意义和互信息完全相同,并且公式也是完全相同。 其中D表示数据集,A表示特征,信息增益表示得
阅读全文
posted @ 2018-05-17 22:30
笨拙的忍者
阅读(250)
推荐(0)
摘要:
整理自:https://mp.weixin.qq.com/s/LGyNq3fRlsRSatu1lpFnnw 问题:熵是什么?熵存在的意义是啥?为什么叫熵? 答案:在机器学习中熵是表征随机变量分布的混乱程度,分布越混乱,则熵越大,在物理学上表征物质状态的参量之一,也是体系混乱程度的度量; 熵存在的意义
阅读全文
posted @ 2018-05-17 22:14
笨拙的忍者
阅读(376)
推荐(0)
摘要:
整理自:https://mp.weixin.qq.com/s/LGyNq3fRlsRSatu1lpFnnw 自信息是熵的基础,理解它对后续理解各种熵非常有用。自信息表示某一事件发生时所带来的信息量的多少,当事件发生的概率越大,则自信息越小,或者可以这样理解:某一事件发生的概率非常小,但是实际上却发生
阅读全文
posted @ 2018-05-17 22:13
笨拙的忍者
阅读(865)
推荐(0)
摘要:
摘自:http://www.cnblogs.com/pinard/p/7160330.html 先看下列三篇,再理解此篇会更容易些(个人意见) skip-gram,CBOW,Word2Vec 词向量基础 CBOW与Skip-Gram用于神经网络语言模型 CBOW与Skip-Gram用于神经网络语言模
阅读全文
posted @ 2018-05-15 11:59
笨拙的忍者
阅读(287)
推荐(0)
摘要:
转自:https://www.cnblogs.com/mcgrady/p/3329825.html 什么是霍夫曼树 构建过程 编码 什么是霍夫曼树? 哈夫曼树是一种带权路径长度最短的二叉树,也称为最优二叉树。 它们的带权路径长度分别为: 图a: WPL=5*2+7*2+2*2+13*2=54 图b:
阅读全文
posted @ 2018-05-15 11:29
笨拙的忍者
阅读(434)
推荐(0)
摘要:
代码来源于:tensorflow机器学习实战指南(曾益强 译,2017年9月)——第七章:自然语言处理 代码地址:https://github.com/nfmcclure/tensorflow-cookbook 数据:http://www.cs.cornell.edu/people/pabo/mov
阅读全文
posted @ 2018-05-14 17:08
笨拙的忍者
阅读(620)
推荐(0)
摘要:
代码来源于:tensorflow机器学习实战指南(曾益强 译,2017年9月)——第七章:自然语言处理 代码地址:https://github.com/nfmcclure/tensorflow-cookbook 数据:http://www.cs.cornell.edu/people/pabo/mov
阅读全文
posted @ 2018-05-14 13:53
笨拙的忍者
阅读(720)
推荐(0)
摘要:
代码来源于:tensorflow机器学习实战指南(曾益强 译,2017年9月)——第七章:自然语言处理 代码地址:https://github.com/nfmcclure/tensorflow-cookbook 数据来源:http://www.cs.cornell.edu/people/pabo/m
阅读全文
posted @ 2018-05-13 11:03
笨拙的忍者
阅读(1045)
推荐(0)
摘要:
转载自:https://blog.csdn.net/uestc_c2_403/article/details/72235565 tf.truncated_normal(shape, mean, stddev) :shape表示生成张量的维度,mean是均值,stddev是标准差。这个函数产生正太分布
阅读全文
posted @ 2018-05-10 18:12
笨拙的忍者
阅读(1451)
推荐(0)
摘要:
整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 思想 表达式 实际计算方法 改进 WGAN 1.思想 GAN结合了生成模型和判别模型,相当于矛与盾的撞击。生成模型负责生成最好的数
阅读全文
posted @ 2018-05-10 13:18
笨拙的忍者
阅读(324)
推荐(0)