打赏

随笔分类 -  Machine learning

摘要:CS224N Assignment 1: Exploring Word Vectors (25 Points)¶ Welcome to CS224n! Before you start, make sure you read the README.txt in the same directory 阅读全文
posted @ 2019-07-05 10:53 listenviolet 阅读(11336) 评论(0) 推荐(2)
摘要:参考链接: 1. https://medium.com/@cwchang/gradient-boosting-%E7%B0%A1%E4%BB%8B-f3a578ae7205 2. https://zhuanlan.zhihu.com/p/38329631 3. StatQuest with Josh 阅读全文
posted @ 2019-06-09 09:30 listenviolet 阅读(1054) 评论(0) 推荐(0)
摘要:参考链接: 矩阵乘法的本质是什么? 条件数 病态矩阵与条件数(&& 与特征值和SVD的关系) 矩阵的物理意义: https://blog.csdn.net/NightkidLi_911/article/details/38178533 https://blog.csdn.net/NightkidLi 阅读全文
posted @ 2019-03-24 11:18 listenviolet 阅读(4191) 评论(0) 推荐(0)
摘要:参考链接: 拉格朗日乘子法和KKT条件 SVM为什么要从原始问题变为对偶问题来求解 为什么要用对偶问题 写在SVM之前——凸优化与对偶问题 1. 拉格朗日乘子法与KKT条件 2. SVM 为什么要从原始问题变为对偶问题来求解 1. 首先是我们有不等式约束方程,这就需要我们写成min max的形式来得 阅读全文
posted @ 2019-03-22 19:48 listenviolet 阅读(2539) 评论(2) 推荐(0)
摘要:整理摘自:https://blog.csdn.net/tsyccnh/article/details/79163834 信息论 Outline 1. 信息量与信息熵 2. 相对熵(KL散度) 3. 交叉熵 1. 信息量与信息熵 https://baike.baidu.com/item/%E4%BF% 阅读全文
posted @ 2018-10-22 19:47 listenviolet 阅读(373) 评论(0) 推荐(0)
摘要:将测试样本进行排序,“最可能”是正例的排在最前面,“最不可能”是正例的排在最后面。 分类过程就相当于在这个排序中以某个“截断点”(见图中阈值)将样本分为两部分,前一部分判作正例,后一部分判作反例。 我们根据学习器的预测结果对样例进行排序,按此顺序把逐个样本作为正例进行预测,每次计算出FPR, TPR 阅读全文
posted @ 2018-10-17 09:51 listenviolet 阅读(32503) 评论(2) 推荐(4)
摘要:整理摘自 https://datascience.stackexchange.com/questions/15989/micro-average-vs-macro-average-performance-in-a-multiclass-classification-settin/16001 Micr 阅读全文
posted @ 2018-10-16 16:37 listenviolet 阅读(611) 评论(0) 推荐(0)
摘要:摘自 https://www.cnblogs.com/xiaobajiu/p/7867162.html 调和平均数的代数形式(通俗): 应用场景:样本自变量(身高)和因变量(胖瘦)的乘积相等的情况下,改变每个样本的因变量(胖瘦),而不改变因变量的总和(井宽),所得自变量为调和平均数。 上图也可以看成 阅读全文
posted @ 2018-10-16 14:49 listenviolet 阅读(2200) 评论(0) 推荐(0)
摘要:整理摘自 https://blog.csdn.net/icefire_tyh/article/details/52065626 若不考虑冗余: 属性1 属性2 属性3 2 3 3 假设空间中有 3 * 4 * 4 + 1 = 49种假设。 在不考虑沉余的情况下,最多包含k个合取式来表达假设空间,显然 阅读全文
posted @ 2018-10-10 09:28 listenviolet 阅读(2113) 评论(0) 推荐(0)