01 2018 档案

摘要:Lecture 14:Radial Basis Function Network 14.1 RBF Network Hypothesis 图 14-1 RBF network 从图 14 -1 中可以看出,RBF NNet 没啥特色。就是用 RBF 核作为激活函数。为什么还要 RBF NNet 呢? 阅读全文
posted @ 2018-01-21 16:53 tmortred 阅读(405) 评论(0) 推荐(0)
摘要:Lecture 13: Deep Learning 13.1 Deep Neural Network 图 13-1 如何设计每一层 layer ! layer 是一层一层加上去的,还是有可能是 几层几层加上去的(CNN 肯定是几层几层加上去的)。 1) “结构决定功能”固然正确,但是如何设计结构以及 阅读全文
posted @ 2018-01-18 19:44 tmortred 阅读(188) 评论(0) 推荐(0)
摘要:Lecture 12: Neural Netowrk 12.1 Motivation 图 12-1 神经网络的表达能力很强 12.2 Neural Network Hypothesis 图 12-2 神经网络中激活函数(不限于此) 12.3 Neural Network Learning 图 12- 阅读全文
posted @ 2018-01-17 19:35 tmortred
摘要:Lecture 11:Gradient Boosted Decision Tree 11.1 Adaptive Boosted Decision Tree RF 是 uniform blend C&RT 树算法, C&RT 树其它 blending 该怎么做? 比如 Adaboost DT (Ada 阅读全文
posted @ 2018-01-13 16:05 tmortred
摘要:Lecture 10:Random Forest 10.1 Random Forest Algorithm 图 10-1 在上一节中我们学习了 C&RT 树,Full Grown 的 C&RT 的树能做到 in-sample 很小但是 out-sample error 很大。 记得《西瓜书》中有关于 阅读全文
posted @ 2018-01-12 19:50 tmortred
摘要:Lecture 9:Decision Tree 9.1 Decision Tree Hypothesis 在之前的课程中,我们接触过 BAGging 和 Boosting 算法。在本节将会讨论另外一种 blend 方法——stacking。 图 9-1 以前从来没有把 Decision Tree 看 阅读全文
posted @ 2018-01-11 19:35 tmortred
摘要:Lecture 8:Adaptive Boosting 8.1 Motivation of Boosting 本小节是通过 2 个例子来说明 Boosting 是什么。第一个例子是教小朋友识别苹果,第二个例子是 2D 空间下的 2 分类问题。 在第一个例子中,每次提出算法判断标准都和之前的不同。在第 阅读全文
posted @ 2018-01-10 19:59 tmortred
摘要:Lecture 7:Blending and Bagging 7.1 Motivation of Aggregation 图 7-1 图 7-1 中所描述的算法过程和 Andrew Ng 提到的局部加权回归有点神似。稍微发散一下,对于有限的 hypothesis sets 中每个 hypothesi 阅读全文
posted @ 2018-01-09 20:03 tmortred
摘要:Lecture 5:Kernel Logistic Regression 5.1 Soft-Margin SVM as Regularized Model 图 5-1 Soft-Margin SVM 的 loss function 很像之前提到的 L2 regularization? 那么 Soft 阅读全文
posted @ 2018-01-07 14:43 tmortred
摘要:Lecture 4: Soft-Margin Support Vector Machine 4.1 Motivation and Primal Problem 图 4-1 上一节,我们讨论了有关 kernel SVM 。kernel SVM 威力太强大,可能会导致过拟合。如图 4-1 所示,很明显应 阅读全文
posted @ 2018-01-06 21:18 tmortred
摘要:Lecture 3:Kernel Support Vector Machine 3.1 Kernel Trick 现在接着上一节提到的问题进行讨论,即 Dual SVM 还是有很大的计算量。将 x-space 变量映射到 z-space, 如 z-space 的基如图 3-1 所示。这样为了计算 D 阅读全文
posted @ 2018-01-06 17:17 tmortred 阅读(197) 评论(0) 推荐(0)
摘要:Lecture 2. Dual Support Vector Machine 2.1 Motivation of Dual Suppor Vector Machine 将 linear support vector machine 加上 feature transformation 就能得到 non 阅读全文
posted @ 2018-01-05 19:56 tmortred 阅读(214) 评论(0) 推荐(0)
摘要:Lecture 1:Linear Support Vector Machine 1.1 Course Introduction 本系列课程分为 3 个部分: 1)支持向量机 2)集成学习 3) 隐特征相关的 Deep Learning 1.2 Large-Margin Separating Hype 阅读全文
posted @ 2018-01-04 20:13 tmortred 阅读(374) 评论(0) 推荐(0)