摘要: 数据降维和特征选择 阅读全文
posted @ 2019-02-24 21:52 YJ-20 阅读(177) 评论(0) 推荐(0) 编辑
摘要: 本文材料部分整理于互联网其他博客,仅做交流学习使用。文中涉及到的webdriver和BeautifulSoup的比较,是作者根据自己的经验总结来,有错之处也请交流告知,谢谢!!! 阅读全文
posted @ 2019-01-02 16:43 YJ-20 阅读(456) 评论(0) 推荐(0) 编辑
摘要: 1使用BN进行数据归一化的原因 a) 神经网络学习过程本质就是为了学习数据分布,一旦训练数据与测试数据的分布不同,那么网络的泛化能力也大大降低; b) 另外一方面,一旦每批训练数据的分布各不相同(batch 梯度下降),那么网络就要在每次迭代都去学习适应不同的分布,这样将会大大降低网络的训练速度. 阅读全文
posted @ 2018-01-18 11:29 YJ-20 阅读(180) 评论(0) 推荐(0) 编辑
摘要: 1.概率质量函数与概率密度函数 在概率论中,概率质量函数 (Probability Mass Function,PMF)是离散随机变量在各特定取值上的概率。概率质量函数和概率密度函数不同之处在于:概率密度函数是对连续随机变量定义的,本身不是概率,只有对连续随机变量的取值进行积分后才是概率。2.伯努利 阅读全文
posted @ 2018-01-17 20:28 YJ-20 阅读(1413) 评论(0) 推荐(0) 编辑
摘要: 1交叉熵损失函数的由来1.1关于熵,交叉熵,相对熵(KL散度) 熵:香农信息量的期望。变量的不确定性越大,熵也就越大,把它搞清楚所需要的信息量也就越大。其计算公式如下: 其是一个期望的计算,也是记录随机事件结果的平均编码长度(关于编码:一个事件结果的出现概率越低,对其编码的bit长度就越长。即无法压 阅读全文
posted @ 2018-01-17 20:12 YJ-20 阅读(1012) 评论(0) 推荐(0) 编辑
摘要: 本文内容涉及梯度下降及其变形,牛顿法,共轭梯度法等多种优化方法,其中EM算法在本文中没有详细讲述。在后续文章中单独讲述。 当然,优化方法还包括各种启发性方法 ,本文没有讲述。 阅读全文
posted @ 2017-12-18 22:29 YJ-20 阅读(145) 评论(0) 推荐(0) 编辑
摘要: 本文主要涉及接受拒绝采样,重要性采样,蒙特卡洛方法,吉布斯采样等内容。部分内容整理与互联网。仅供交流学习使用! 阅读全文
posted @ 2017-12-18 22:22 YJ-20 阅读(211) 评论(0) 推荐(0) 编辑
摘要: 本文整理于网上多个博客的资源,如有冒犯,请联系作者:1403066284@qq.com.谢谢! 阅读全文
posted @ 2017-11-23 09:49 YJ-20 阅读(137) 评论(0) 推荐(0) 编辑
摘要: 参考文献: [1]李航.统计学习方法 阅读全文
posted @ 2017-10-07 20:21 YJ-20 阅读(171) 评论(0) 推荐(0) 编辑
摘要: K近邻法 1基本概念 K近邻法,是一种基本分类和回归规则。根据已有的训练数据集(含有标签),对于新的实例,根据其最近的k个近邻的类别,通过多数表决的方式进行预测。 2模型相关 2.1 距离的度量方式 定义距离 (1)欧式距离:p=2。 (2)曼哈顿距离:p=1。 (3)各坐标的最大值:p=∞。 2. 阅读全文
posted @ 2017-10-07 20:08 YJ-20 阅读(1651) 评论(2) 推荐(1) 编辑