11 2018 档案

摘要:接着上周的更,上周我们更到,在对图像的线性分类中,我们只用multi-class 的svm,然后我们得到以下的损失函数 这里每个数值代表为下: X 是一个 N by D 的矩阵,N 代表 training data 的数量,D 代表每个 training data 的维度 W 是一个 D by C 阅读全文
posted @ 2018-11-26 01:00 深度预习 阅读(659) 评论(0) 推荐(0)
摘要:因为看cs231的时候用了一下multi-class的svm,所以又把svm给复习了一下,教材是周志华的西瓜书,这里是大概的笔记。 1.线性可分 对于一个数据集: 如果存在一个超平面X能够将D中的正负样本精确地划分到S的两侧,超平面如下: 那么数据集D就是线性可分的,否则,不可分。 w称为法向量,决 阅读全文
posted @ 2018-11-19 01:18 深度预习 阅读(721) 评论(0) 推荐(0)
摘要:1. 先说仿射函数和线性函数 线性函数平常非常常见: 这里我们是将一个4维的向量最后投射到一个1维的值。不过这里注意,这个函数是经过原点的。 再看下仿射方程。 这里我们可以看下他们的区别 直观的区别就是会不会经过原点。 知乎上有大佬是这么解释“ 仿射函数即由由1阶多项式构成的函数,一般形式为 f ( 阅读全文
posted @ 2018-11-10 17:18 深度预习 阅读(2388) 评论(0) 推荐(0)