随笔分类 - 数据科学
摘要:
`Focal Loss`是为了处理样本不平衡问题而提出的,经时间验证,在多种任务上,效果还是不错的。在理解`Focal Loss`前,需要先深刻理一下交叉熵损失,和带权重的交叉熵损失。然后我们从样本权重的角度出发,理解`Focal Loss`是如何分配样本权重的。Focal是动词Focus的形容词形式,那么它究竟Focus在什么地方呢?(详细的代码请看[Gitee](https://gitee.com/edata-code/DeepLearning-MachineLearning-Note/tree/master/FocalLoss))。
阅读全文
摘要:注: 字典学习也是一种数据降维的方法,这里我用到SVD的知识,对SVD不太理解的地方,可以看看这篇博客: "《SVD(奇异值分解)小结 》" ;数据集: "https://pan.baidu.com/s/1ZmpUSIscy4VltcimwwIWew" 1、字典学习思想 字典学习的思想应该源来实际生
阅读全文
摘要:注: 在 "《SVD(奇异值分解)小结 》" 中分享了SVD原理,但其中只是利用了numpy.linalg.svd函数应用了它,并没有提到如何自己编写代码实现它,在这里,我再分享一下如何自已写一个SVD函数。但是这里会利用到SVD的原理,如果大家还不明白它的原理,可以去看看 "《SVD(奇异值分解)
阅读全文
摘要:注: 奇异值分解在数据降维中有较多的应用,这里把它的原理简单总结一下,并且举一个图片压缩的例子,最后做一个简单的分析,希望能够给大家带来帮助。 1、特征值分解(EVD) 实对称矩阵 在理角奇异值分解之前,需要先回顾一下特征值分解,如果矩阵$A$是一个$m\times m$的 (即$A = A^T$)
阅读全文
摘要:这是学习《Hands On Machine Learning with Scikit Learn and TensorFlow》的笔记,如果此笔记对该书有侵权内容,请联系我,将其删除。 这里面的内容目前条理还不是特别清析,后面有时间会更新整理一下。 下面的代码运行环境为jupyter + pytho
阅读全文
摘要:实验设计与数据处理(大数据分析B中也用到F分布,故总结一下,加深印象)第3课小结——实验的方差分析(one way analysis of variance) 概述 实验结果$S$受多个因素$A_i$影响,但影响的程度各不相同,如何通过实验数据来确定因素的影响程度呢?其函数关系为 $$ S=f(A_
阅读全文

浙公网安备 33010602011771号