11 2016 档案

算法比较-SVM和logistic回归
摘要:http://www.iliuye.com/index.php/Wap/Index/article/id/190886 lr 和 svm本质不同在于loss function的不同,不过想想这几乎对所有的单层模型都使用,lr的损失函数是 cross entropy loss, adaboost的损失 阅读全文

posted @ 2016-11-18 09:14 shadowwalker9 阅读(6381) 评论(0) 推荐(0)

机器学习中的范数规则化之(一)L0、L1与L2范数
摘要:http://blog.csdn.net/zouxy09/article/details/24971995 机器学习中的范数规则化之(一)L0、L1与L2范数 zouxy09@qq.com http://blog.csdn.net/zouxy09 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与 阅读全文

posted @ 2016-11-01 15:22 shadowwalker9 阅读(285) 评论(0) 推荐(0)

全排列的编码和解码----康托编码
摘要:http://www.2cto.com/kf/201311/260148.html 一、康托展开:全排列到一个自然数的双射 X=an*(n-1)!+an-1*(n-2)!+...+ai*(i-1)!+...+a2*1!+a1*0! ai为整数,并且0<=ai<i(1<=i<=n) 适用范围:没有重复 阅读全文

posted @ 2016-11-01 11:05 shadowwalker9 阅读(752) 评论(0) 推荐(0)

导航