随笔分类 -  数据科学

摘要: `Focal Loss`是为了处理样本不平衡问题而提出的,经时间验证,在多种任务上,效果还是不错的。在理解`Focal Loss`前,需要先深刻理一下交叉熵损失,和带权重的交叉熵损失。然后我们从样本权重的角度出发,理解`Focal Loss`是如何分配样本权重的。Focal是动词Focus的形容词形式,那么它究竟Focus在什么地方呢?(详细的代码请看[Gitee](https://gitee.com/edata-code/DeepLearning-MachineLearning-Note/tree/master/FocalLoss))。 阅读全文
posted @ 2020-01-06 11:50 EndlessCoding 阅读(14130) 评论(2) 推荐(8)
摘要:注: 字典学习也是一种数据降维的方法,这里我用到SVD的知识,对SVD不太理解的地方,可以看看这篇博客: "《SVD(奇异值分解)小结 》" ;数据集: "https://pan.baidu.com/s/1ZmpUSIscy4VltcimwwIWew" 1、字典学习思想 字典学习的思想应该源来实际生 阅读全文
posted @ 2018-12-09 13:57 EndlessCoding 阅读(83174) 评论(51) 推荐(40)
摘要:注: 在 "《SVD(奇异值分解)小结 》" 中分享了SVD原理,但其中只是利用了numpy.linalg.svd函数应用了它,并没有提到如何自己编写代码实现它,在这里,我再分享一下如何自已写一个SVD函数。但是这里会利用到SVD的原理,如果大家还不明白它的原理,可以去看看 "《SVD(奇异值分解) 阅读全文
posted @ 2018-12-03 15:02 EndlessCoding 阅读(37480) 评论(25) 推荐(14)
摘要:注: 奇异值分解在数据降维中有较多的应用,这里把它的原理简单总结一下,并且举一个图片压缩的例子,最后做一个简单的分析,希望能够给大家带来帮助。 1、特征值分解(EVD) 实对称矩阵 在理角奇异值分解之前,需要先回顾一下特征值分解,如果矩阵$A$是一个$m\times m$的 (即$A = A^T$) 阅读全文
posted @ 2018-11-28 18:30 EndlessCoding 阅读(182893) 评论(27) 推荐(71)
摘要:这是学习《Hands On Machine Learning with Scikit Learn and TensorFlow》的笔记,如果此笔记对该书有侵权内容,请联系我,将其删除。 这里面的内容目前条理还不是特别清析,后面有时间会更新整理一下。 下面的代码运行环境为jupyter + pytho 阅读全文
posted @ 2018-11-03 19:52 EndlessCoding 阅读(59208) 评论(6) 推荐(3)
摘要:实验设计与数据处理(大数据分析B中也用到F分布,故总结一下,加深印象)第3课小结——实验的方差分析(one way analysis of variance) 概述 实验结果$S$受多个因素$A_i$影响,但影响的程度各不相同,如何通过实验数据来确定因素的影响程度呢?其函数关系为 $$ S=f(A_ 阅读全文
posted @ 2018-10-29 23:00 EndlessCoding 阅读(4373) 评论(0) 推荐(1)