08 2019 档案

摘要:逻辑斯蒂回归主要用于二分类,推广到多分类的话是类似于softmax分类。求 上述问题可以通过最大化似然函数求解。 上述问题可以采用最小化logloss进行求解。 一般地,我们还需要给目标函数加上正则项,参数w加上l1或者l2范数。 LR适合大规模数据,数据量太小的话可能会欠拟合(考虑到数据通常比较稀 阅读全文
posted @ 2019-08-18 16:42 搞钱的阿军 阅读(482) 评论(0) 推荐(0)
摘要:SVM是一种二分类模型,基本模型是定义在特征空间上的间隔最大的线性分类器。SVM学习的目的是从特征空间中找到一个分离超平面,能将实例分到不同的类。 我们要让上述最小的函数间隔最大。由于同时放大参数w,b,函数间隔会增大而原来的模型没有改变(几何间隔不变)。 我们让上述的几何间隔最大化: 将上述w,b 阅读全文
posted @ 2019-08-15 17:30 搞钱的阿军 阅读(423) 评论(0) 推荐(0)