摘要: L1和L2正则化项,又叫做惩罚项,是为了限制模型的参数,防止模型过你和而加在损失函数后面的一项。 L1是模型的各个参数的绝对值之和 L2是模型各个参数的平方和的开方值 区别: 从图形上理解:应为最优的参数值很大概率出现在坐标轴上,这样就导致某一维的权重为0,产生稀疏权重矩阵。 从贝叶斯的角度理解:加 阅读全文
posted @ 2018-10-02 16:51 哗啦啦的哈 阅读(186) 评论(0) 推荐(0) 编辑
摘要: 贝叶斯(BAYES)判别思想是根据先验概率求出后验概率,并依据后验概率分布作出统计推断。所谓先验概率,就是用概率来描述人们事先对所研究的对象的认识的程度;所谓后验概率,就是根据具体资料、先验概率、特定的判别规则所计算出来的概率。它是对先验概率修正后的结果。 为什么是对一个新的实例进行分类的时候总是由 阅读全文
posted @ 2018-10-02 14:06 哗啦啦的哈 阅读(169) 评论(0) 推荐(0) 编辑
摘要: LDA算法的主要优点有: 在降维过程中可以使用类别的先验知识经验,而像PCA这样的无监督学习则无法使用类别先验知识。 LDA在样本分类信息依赖均值而不是方差的时候,比PCA之类的算法较优。 LDA算法的主要缺点有: LDA不适合对非高斯分布样本进行降维,PCA也有这个问题。 LDA降维最多降到类别数 阅读全文
posted @ 2018-10-02 11:50 哗啦啦的哈 阅读(798) 评论(0) 推荐(0) 编辑