会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
zhaop
所谓梦想,不是最初的勇不可当,而是永不停息的疯狂
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
7
···
28
下一页
2018年10月19日
模型评估【PR|ROC|AUC】
摘要: 这里主要讲的是对分类模型的评估。 1、准确率(Accuracy) 准确率的定义是:【分类正确的样本】 / 【总样本个数】,其中分类正确的样本是不分正负样本的 优点:简单粗暴 缺点:当正负样本分布不均衡的情况(假设一种极端情况,正样本1个,负样本99个),此时即使一个比较差的模型(只会将所用的样本预测
阅读全文
posted @ 2018-10-19 22:34 zhaop
阅读(1067)
评论(0)
推荐(1)
2018年10月1日
机器学习之正则化【L1 & L2】
摘要: 前言 L1、L2在机器学习方向有两种含义:一是L1范数、L2范数的损失函数,二是L1、L2正则化 L1范数、L2范数损失函数 L1范数损失函数: L2范数损失函数: L1、L2分别对应损失函数中的绝对值损失函数和平方损失函数 区别: 分析: robust: 与L2相比,L1受异常点影响比较小,因此稳
阅读全文
posted @ 2018-10-01 10:38 zhaop
阅读(644)
评论(0)
推荐(0)
2018年9月29日
机器学习中的损失函数
摘要: Classification: 1、0-1 1)普通01损失函数 针对于二分类问题,Y = {-1, 1}, f为预测结果,f应该是一个连续值,没有经过激励函数加工的数,如果 fy <= 0 为负 该损失函数能够直观的刻画分类的错误率,但是由于其非凸、非光滑的特点,使得算法很难直接对函数进行优化。
阅读全文
posted @ 2018-09-29 21:32 zhaop
阅读(1803)
评论(0)
推荐(0)
线性代数
摘要: 一、矩阵篇 1、Jacobian矩阵(雅可比) yi是关于x=(x1, x2...)的多元函数, yi对x的导数矩阵就是雅可比矩阵 2、Hessian矩阵 海森矩阵是函数的二阶偏导矩阵 3、正定、半正定矩阵 4、奇异矩阵 5、协方差矩阵 协方差是用来衡量两个向量之间的相关性,记作cov(X, Y)
阅读全文
posted @ 2018-09-29 15:30 zhaop
阅读(805)
评论(0)
推荐(0)
2018年9月20日
降维【PCA & SVD】
摘要: PCA(principle component analysis)主成分分析 理论依据 最大方差理论 最小平方误差理论 一、最大方差理论(白面机器学习) 对一个矩阵进行降维,我们希望降维之后的每一维数据能够有大的方差。 为什么呢? 因为每一维的方差越大,说明数据之间区分度高,想象一个极端的情况,降维
阅读全文
posted @ 2018-09-20 11:24 zhaop
阅读(354)
评论(0)
推荐(0)
2018年9月17日
c语言中堆栈和静态空间
摘要: 什么是堆空间、栈空间与静态空间 堆空间:由程序员自己分配空间,如malloc需要指定分配多少个多大的字节空间,不用的时候需要自己释放 栈空间:栈空间是由系统自动分配与释放,如int,char等大小都已固定,局部变量,函数的参数值等 静态空间:全局变量、静态变量存放在静态空间中 http://www.
阅读全文
posted @ 2018-09-17 21:05 zhaop
阅读(569)
评论(0)
推荐(0)
2018年9月12日
hive笔记
摘要: cast cast(number as string), 可以将整数转成字符串 lpad rpad lpad(target, 10, '0') 表示在target字符串前面补0,构成一个长度为10的字符串 concat_ws 列拼接 concat_ws('@', 'zhaopei', 'mail.b
阅读全文
posted @ 2018-09-12 20:58 zhaop
阅读(172)
评论(0)
推荐(0)
2018年9月4日
进程与线程区别
摘要: http://yangcongchufang.com/%E9%AB%98%E7%BA%A7python%E7%BC%96%E7%A8%8B%E5%9F%BA%E7%A1%80/python-process-thread.html 进程: 线程:
阅读全文
posted @ 2018-09-04 10:32 zhaop
阅读(121)
评论(0)
推荐(0)
2018年8月30日
自信息、信息熵和相对熵
摘要: 参考:https://blog.csdn.net/happyhorizion/article/details/77894051 https://blog.csdn.net/acdreamers/article/details/44657745 1、自信息 一件事发生的概率越大,其所带的信息量就越小,
阅读全文
posted @ 2018-08-30 21:11 zhaop
阅读(1184)
评论(0)
推荐(0)
2018年8月26日
【机器学习】BP & softmax求导
摘要: 目录 一、BP原理及求导 二、softmax及求导 一、BP 1、为什么沿梯度方向是上升最快方向 根据泰勒公式对f(x)在x0处展开,得到f(x) ~ f(x0) + f'(x0)(x-x0), 故得到f(x) - f(x0) ~ f'(x0)(x-x0), 所以从x0出发,变化最快,即使f(x)-
阅读全文
posted @ 2018-08-26 21:50 zhaop
阅读(3631)
评论(0)
推荐(1)
上一页
1
2
3
4
5
6
7
···
28
下一页
公告