会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
小日头
博客园
首页
新随笔
联系
管理
订阅
2018年3月16日
损失函数与正则项之间的关系和分析
摘要: 看了知乎一篇博文当我们优化损失函数时,我们在优化什么收获良多,对机器学习分类和回归中损失函数和正则项也有了更深的认识。理解了这些,可以加深对逻辑回归,Softmax,线性回归等机器学习方法的理解,知道为什么要这样。现简单总结一下。 贝叶斯公式:$p(x|y)=\frac{p(y|x)p(x)}{p(
阅读全文
posted @ 2018-03-16 22:33 小日头
阅读(6352)
评论(0)
推荐(1)
2018年3月4日
Softmax Regression及Python代码
摘要: Softmax Regression是逻辑回归在多分类问题上的推广,主要用于处理多分类问题,其中任意两个类别之间都是线性可分的。 假设有$k$个类别,每个类别的参数向量为${\theta}_j $,那么对于每个样本,其所属类别的概率为: \[P({{y}_{i}}|X,{{\theta }_{j}}
阅读全文
posted @ 2018-03-04 22:55 小日头
阅读(2117)
评论(0)
推荐(0)
Liner Regression 线性回归及Python代码
摘要: 线性回归是最典型的回归问题,其目标值与所有的特征之间存在线性关系。线性回归于逻辑回归类似,不同的是,逻辑回归在线性回归的基础上加了逻辑函数,从而将线性回归的值从实数域映射到了0-1,通过设定阀值,便实现了回归的0-1分类,即二分类。 线性回归函数$Y=XW$,其中Y是1*n维向量,X是n*m矩阵,W
阅读全文
posted @ 2018-03-04 09:12 小日头
阅读(4701)
评论(0)
推荐(0)
2018年3月1日
Logistics Regression 逻辑回归及Python代码
摘要: 逻辑回归(Logistics Regression)是广义线性模型中的一种,其取值为0或1,服从伯努利分布。而伯努利家族的正则响应函数就是sigmoid函数,因此逻辑回归为什么选用sigmoid函数的理论原因。同时,sigmoid函数好处有: 1. 将现行分类器的响应值 <w , x> (内积) 映
阅读全文
posted @ 2018-03-01 22:03 小日头
阅读(1024)
评论(0)
推荐(0)
2018年2月10日
Python画图
摘要: Python里经常需要绘图,客http://nbviewer.jupyter.org/github/lijin-THU/notes-python/blob/master/index.ipynb ,此博文里有详细的Python学习笔记,针对绘图也有详细的说明。此文仅为自己学习实践的记录。 1. plt
阅读全文
posted @ 2018-02-10 11:28 小日头
阅读(297)
评论(0)
推荐(0)
2018年2月8日
Pandas常用方法和使用技巧
摘要: 在Python 3 环境下,根据实际使用Pandas的一些经验,简单总结了一下Pandas的使用要点。 Pandas 有三种结构, 都可以指定索引,默认情况下,索引值从0。三种结构分别为: Serie:一维同类型结构 DataFrame:二维结构,每列的类型相同 Panel:三维结构 1. Seri
阅读全文
posted @ 2018-02-08 22:06 小日头
阅读(518)
评论(0)
推荐(0)
2018年2月3日
Numpy常用方法和使用技巧
摘要: 在Python 3 环境下,根据切身使用Numpy经验,总结了一些小的常用的Numpy方法和技巧。 1. np.array 可将序列对象(如列表和元包)转换为数组,可以生成一维或多维数组,生成多维数组时要对齐。 a = [[1,2,3],[4,5,6]]b = np.array(a) 2. 数组与列
阅读全文
posted @ 2018-02-03 22:09 小日头
阅读(845)
评论(1)
推荐(0)
公告