摘要: "Logistic函数" 可用牛顿迭代法/梯度下降法求解。 随机梯度下降法:一次仅用一个样本点(的回归误差)来更新回归系数。随着迭代的进行,alpha越来越小,这会缓解系数的高频波动 "支持向量机(SVM)" 对偶问题: 同样的方法: 训练SVM和使用SVM都用到了样本间的内积,而且只用到内积。那如 阅读全文
posted @ 2017-06-25 19:32 yingtaomj 阅读(429) 评论(0) 推荐(0) 编辑
摘要: "L0、L1与L2范数" 机器学习的目标:在规则化参数的同时最小化误差 第一项:误差 第二项:规则化函数,约束我们的模型尽量的简单 对于第一项Loss函数,如果是Square loss,那就是最小二乘了;如果是Hinge Loss,那就是著名的SVM了;如果是exp Loss,那就是牛逼的 Boos 阅读全文
posted @ 2017-06-25 19:29 yingtaomj 阅读(602) 评论(0) 推荐(0) 编辑