05 2018 档案

摘要:线性可分支持向量机 函数间隔和几何间隔 max(2/||w||) 或min((1/2)*||w||) 原始问题的对偶问题是极大极小问题 maxaminw,b 1.对w,b求偏导数并令其等于0 2.KKT条件 从KKT条件可知,对偶问题解出的α参数,仅support vectors的αi非零,其余全0 阅读全文
posted @ 2018-05-30 10:55 喵喵帕斯 阅读(410) 评论(0) 推荐(0)
摘要:CS231n课程笔记翻译:神经网络笔记1(上) 一、常用激活函数 每个激活函数(或非线性函数)的输入都是一个数字,然后对其进行某种固定的数学操作。下面是在实践中可能遇到的几种激活函数: ———————————————————————————————————————— 左边是Sigmoid非线性函数, 阅读全文
posted @ 2018-05-19 17:23 喵喵帕斯 阅读(1871) 评论(0) 推荐(0)
摘要:Coursera吴恩达《优化深度神经网络》课程笔记(3)-- 超参数调试、Batch正则化和编程框架 1. Tuning Process 深度神经网络需要调试的超参数(Hyperparameters)较多,包括: :学习因子 :动量梯度下降因子 :Adam算法参数 #layers:神经网络层数 #h 阅读全文
posted @ 2018-05-16 10:01 喵喵帕斯 阅读(12344) 评论(0) 推荐(1)
摘要:概述 鉴于决策树容易过拟合的缺点,随机森林采用多个决策树的投票机制来改善决策树,我们假设随机森林使用了m棵决策树,那么就需要产生m个一定数量的样本集来训练每一棵树,如果用全样本去训练m棵决策树显然是不可取的,全样本训练忽视了局部样本的规律,对于模型的泛化能力是有害的 产生n个样本的方法采用Boots 阅读全文
posted @ 2018-05-10 10:28 喵喵帕斯 阅读(3207) 评论(0) 推荐(0)
摘要:CS231n之线性分类器 斯坦福CS231n项目实战(二):线性支持向量机SVM CS231n 2016 通关 第三章-SVM与Softmax cs231n:assignment1——Q3: Implement a Softmax classifier cs231n线性分类器作业:(Assignme 阅读全文
posted @ 2018-05-05 17:57 喵喵帕斯 阅读(1869) 评论(0) 推荐(0)
摘要:Canopy聚类算法(经典,看图就明白) 聚类算法。 这个算法获得的并不是最终结果,它是为其他算法服务的,比如k-means算法。它能有效地降低k-means算法中计算点之间距离的复杂度。 图中有一个T1,一个T2,我们称之为距离阀值,显然T1>T2,这两个值有什么用呢?我们先确定了一个中心,然后计 阅读全文
posted @ 2018-05-03 10:27 喵喵帕斯 阅读(575) 评论(1) 推荐(0)