08 2019 档案
摘要:1 数岛个数 1 1 1 0 1 1 1 0 0 1 1 0 1 0 0 0 0 0 0 0 结果为3 DFS:深度优先搜索,使用递归的遍历 BFS:广度优先遍历,使用队列记录 遍历:按照某种顺序访问“图”中所有的节点 顺序:深度优先(找最深的):栈 广度优先(找最近的):队列 时间复杂度 O(n+
阅读全文
摘要:(搬运工) 逻辑回归(LR)与SVM的联系与区别 LR 和 SVM 都可以处理分类问题,且一般都用于处理线性二分类问题(在改进的情况下可以处理多分类问题,如LR的Softmax回归用在深度学习的多分类中) 区别: 1、LR 是 参数模型,SVM是非参数模型,(svm中的 linear 和 rbf 是
阅读全文
摘要:恢复内容开始 Softmax Regression 可以看做是 LR 算法在多分类上的推广,即类标签 y 的取值大于或者等于 2。 假设数据样本集为:$\left \{ \left ( X^{(1)},y ^{(1)} \right ) ,\left ( X^{(2)},y ^{(2)} \righ
阅读全文
摘要:不均衡数据的重采样 在实际应用中,我们拿到的数据往往是正负样本比不均衡的,如:医疗诊断、网络入侵检测、信用卡反诈骗、推荐系统推荐等。而许多算法在面对不均衡的样本时往往会出现问题。 比如,最简单的,如果正负样本比例达到1:99,那么分类器将所有的样本都划分为负样本时的正确率能够达到99%,然而这并不是
阅读全文
摘要:采样的作用 1 采样实现对随机现象的模拟,根据给定高的概率分布,模拟产生一个对应的随机事件。 2 采样也可以看做一种非参数模型,通过利用少数的采样点来近似总体分布,并刻画总体分布中的不确定性。 3 对当前数据进行重采样,可以充分利用已有数据集,挖掘更多信息,如自助法和刀切法。另外,利用重采样技术,可
阅读全文
摘要:无约束优化的常见算法 无约束优化问题可以表示为: $min_{\theta} L(\theta)$ 其中目标函数 $L(\cdot)$ 是光滑的。如何针对不同的目标函数,不同的应用场景求解一个无约束优化问题是机器学习领域的关注点。 经典的优化算法可以分为直接法和迭代法两大类。 直接法 直接法,就是能
阅读全文
摘要:有监督学习涉及的常用损失函数及其特点 有监督学习中,损失函数刻画了模型和训练样本之间的匹配程度。 常用的损失函数有:0-1 损失函数,合页损失函数,对数损失函数,平方损失函数,绝对损失函数,Huber 损失函数等。下面分别介绍几个损失函数。 0-1 损失函数 对于二分类问题,希望分类器输出的值与样本
阅读全文

浙公网安备 33010602011771号