随笔分类 - 机器学习
摘要:一、CART(分类回归树) 1.思想: 一种采用基尼信息增益作为划分属性的二叉决策树。基尼指数越小,表示纯度越高。 2.回归: 每个节点都有一个预测值,预测值等于属于该节点的所有样例的平均值,分支时,选择每个属性的每个阈值的最好分割点,衡量的标准是最小化均方差。 训练:对训练样本的第i(1<=i<=
        阅读全文
            
摘要:一、经验、期望和结构风险 1.总结 经验风险是局部的,基于训练集所有样本点损失函数最小化的;期望风险是全局的,是基于所有样本点的损失函数最小化的。 经验风险函数是现实的,可求的;期望风险函数是理想化的,不可求的。 结构风险是对经验风险和期望风险的折中。 2.参考: https://blog.csdn
        阅读全文
            
摘要:一、Smooth L1 Loss 1.公式: 2.原因: L1损失使权值稀疏但是导数不连续,L2损失导数连续可以防止过拟合但对噪声不够鲁棒,分段结合两者优势。 L1 Loss的导数是常数,那么在训练后期,当预测值与 ground truth 差异很小时, L1 Loss 损失对预测值的导数的绝对值仍
        阅读全文
            
摘要:一、感知机 1.模型和图像: 2.数学定义推导和优化: 3.流程 4.参考资料 https://blog.csdn.net/wodeai1235/article/details/54755735 二、线性回归 1.定义及解析解: a=(XTX) -1 XTy,如加2范数约束则解析解为a=(XTX+λ
        阅读全文
            
摘要:一、SVM 1.基本思想 基于训练集找到一个划分超平面,能将不同类别的样本分开。 方法是最大化不同类支持向量到超平面的距离。用拉格朗日乘子法求解问题。 SV M也可以做回归。 2.推导 3.核函数 可能非线性可分,即不存在一个超平面能分开正负样本,此时可将原始样本映射到更高维的空间,使其线性可分。 
        阅读全文
            
 
                     
                    
                 
                    
                 
         浙公网安备 33010602011771号
浙公网安备 33010602011771号