摘要:
《Machine Learning in Action》 为防止连续乘法时每个乘数过小,而导致的下溢出(太多很小的数相乘结果为0,或者不能正确分类) 训练: 分类: 注意:上述代码中标有注意的地方,是公式中概率连乘变成了对数概率相加。此举可以在数学上证明不会影响分类结果,且在实际计算中,避免了因概率 阅读全文
posted @ 2017-08-21 23:01 AYE89 阅读(1253) 评论(0) 推荐(0)
|
||
|
摘要:
《Machine Learning in Action》 为防止连续乘法时每个乘数过小,而导致的下溢出(太多很小的数相乘结果为0,或者不能正确分类) 训练: 分类: 注意:上述代码中标有注意的地方,是公式中概率连乘变成了对数概率相加。此举可以在数学上证明不会影响分类结果,且在实际计算中,避免了因概率 阅读全文
posted @ 2017-08-21 23:01 AYE89 阅读(1253) 评论(0) 推荐(0)
摘要:
区别: 几种朴素贝叶斯分类器的区别在于对于分布的假设,即假设满足的形式。 一、高斯NB 导入 假设特征的似然函数满足, 和 采用“最大似然估计” 二、Multinomial NB 导入 特征是离散值,通常用样本的概率去估计 为避免有的特征值缺省,一般对样本的概率做Laplace平滑:(a=1时) 三 阅读全文
posted @ 2017-08-21 22:37 AYE89 阅读(2980) 评论(0) 推荐(0)
摘要:
原型 class sklearn.naive_bayes.MultinomialNB(alpha=1.0, fit_prior=True, class_prior=None) 参数 alpha : float, optional (default=1.0) Additive (Laplace/Lid 阅读全文
posted @ 2017-08-21 20:23 AYE89 阅读(10104) 评论(0) 推荐(0)
摘要:
知乎上总结: "linux使用的1:1的线程模型,在内核中是不区分线程和进程的,都是可运行的任务而已。fork调用clone(最少的共享),pthread_create也是调用clone(最大共享).fork创建会比pthread_create多消耗一点点,因为要拷贝tables和cow mappi 阅读全文
posted @ 2017-08-21 13:24 AYE89 阅读(220) 评论(0) 推荐(0) |
||