摘要: 反向传播算法从原理到实现 反向传播算法Backpropagation的python实现 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 博主接触深度学习已经一段时间,近期在与别人进行讨论时,发现自己对于反向传播算法理解的并不是十分的透彻,现在想通过这篇博文缕清一下思路.自身才疏学浅欢迎 阅读全文
posted @ 2017-12-12 17:17 WUST许志伟 阅读(7468) 评论(1) 推荐(7)
摘要: 机器学习数学笔记|极大似然估计 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 本博客为七月在线邹博老师机器学习数学课程学习笔记 为七月在线打call!! "课程传送门" 极大似然估计 假设D是样本集合,A是参数集合,我们在D样本集固定的情况下,A取何值时,P(A|D)能取到最大. 我 阅读全文
posted @ 2017-11-17 16:37 WUST许志伟 阅读(744) 评论(0) 推荐(0)
摘要: 机器学习数学笔记|大数定理中心极限定理矩估计 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 本博客为七月在线邹博老师机器学习数学课程学习笔记 为七月在线打call!! "课程传送门" 概率密度/概率分布函数 概率密度只是针对连续性变量而言,而分布函数是对所有随机变量取值的概率的讨论, 阅读全文
posted @ 2017-11-14 20:13 WUST许志伟 阅读(1037) 评论(0) 推荐(0)
摘要: 机器学习数学笔记|偏度与峰度及其python实现 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 本博客为七月在线邹博老师机器学习数学课程学习笔记 为七月在线打call!! "课程传送门" 矩 对于随机变量X,X的K阶原点矩为 $$E(X^{k})$$ X的K阶中心矩为 $$E([X 阅读全文
posted @ 2017-11-14 15:15 WUST许志伟 阅读(5256) 评论(0) 推荐(0)
摘要: 机器学习数学笔记|期望方差协方差矩阵 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 本博客为七月在线邹博老师机器学习数学课程学习笔记 为七月在线打call!! "课程传送门" 简单概率计算 Example1 我们的思路是,若A先到达则假设A是一条长1cm的线段.B出现的概率是一个点, 阅读全文
posted @ 2017-11-13 18:52 WUST许志伟 阅读(4092) 评论(0) 推荐(0)
摘要: 机器学习数学笔记|概率论基础常见概型分布期望与方差 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 本博客为七月在线邹博老师机器学习数学课程学习笔记 为七月在线打call!! "课程传送门" 概率论 对概率的认识,x表示一个事件,则P(x)表示事件发生的概率,其中不可能发生的事件P(x 阅读全文
posted @ 2017-11-13 11:29 WUST许志伟 阅读(4658) 评论(0) 推荐(0)
摘要: 机器学习数学笔记|Taylor展开式与拟牛顿 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 原创文章,如需转载请保留出处 本博客为七月在线邹博老师机器学习数学课程学习笔记 为七月在线打call!! "课程传送门" Taylor 展式与拟牛顿 索引 taylor展式 计算函数值 解释g 阅读全文
posted @ 2017-11-12 16:07 WUST许志伟 阅读(2811) 评论(0) 推荐(1)
摘要: 机器学习数学笔记|微积分梯度jensen不等式 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 原创文章,如需转载请保留出处 本博客为七月在线邹博老师机器学习数学课程学习笔记 为七月在线打call!! "课程传送门" 索引 微积分,梯度和Jensen不等式 Taylor展开及其应用 常 阅读全文
posted @ 2017-11-10 19:25 WUST许志伟 阅读(3008) 评论(0) 推荐(3)
摘要: [DeeplearningAI笔记]第三章2.9 2.10端到端学习 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.9 什么是端到端学习 What is End to end deeplearning 以前有一些数据处理系统或者学习系统,它们需要多个阶段 阅读全文
posted @ 2017-11-07 17:15 WUST许志伟 阅读(1585) 评论(0) 推荐(0)
摘要: [DeeplearningAI笔记]第三章2.7 2.8多任务学习/迁移学习 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.7 迁移学习 Transfer Learninig 神经网络可以从一个任务中习得知识,并将这些知识应用到另一个独立的任务中.例如: 阅读全文
posted @ 2017-11-06 17:33 WUST许志伟 阅读(3606) 评论(2) 推荐(3)
摘要: [DeeplearningAI笔记]第三章2.4 2.6不匹配的训练和开发/测试数据 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.4在不同分布上训练和测试数据 在深度学习时代,越来越多的团队使用和开发集/测试集不同分布的数据来训练模型.下面解释一些方法 阅读全文
posted @ 2017-11-05 20:34 WUST许志伟 阅读(1421) 评论(0) 推荐(0)
摘要: 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.1 误差分析 训练出来的模型往往没有达到人类水平的效果,为了得到人类水平的结果,我们对原因进行分析,这个过程称为误差分析. 实例剖析 1. 例如此时你正在训练一个猫分类器,其中正确率为90%,这离目标有一定的 阅读全文
posted @ 2017-11-05 14:51 WUST许志伟 阅读(652) 评论(0) 推荐(0)
摘要: [DeeplearningAI笔记]第三章1.8 1.12可避免误差与模型改善 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 1.8 为什么是人的表现 今天,机器学习算法可以与人类水平的表现性能竞争,因为它们在很多应用程序中更有生产力和更可行。并且设计和构建机器学习系统的工作流程都比 阅读全文
posted @ 2017-11-01 13:37 WUST许志伟 阅读(884) 评论(0) 推荐(0)
摘要: [DeeplearningAI笔记]第三章1.4 1.7开发集测试集划分与满足与优化指标 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.4 满足和优化指标 Stisficing and optimizing metrics 有时候把你要考虑的所有事情组合 阅读全文
posted @ 2017-10-31 13:19 WUST许志伟 阅读(777) 评论(0) 推荐(0)
摘要: [DeeplearningAI笔记]第三章1.1 1.3查准率/查全率/F1分数 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.1 什么是ML策略 机器学习策略简介 情景模拟 假设你正在训练一个分类器,你的系统已经达到了90%准确率,但是对于你的应用程序 阅读全文
posted @ 2017-10-30 21:06 WUST许志伟 阅读(932) 评论(0) 推荐(0)
摘要: [DeeplearningAI笔记]第二章3.8 3.9分类与softmax 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 3.8 Softmax regression Softmax回归.能让你在试图识别某一分类时作出预测,或者说是多种分类的一个,不只是识别两个分类. 以识别图片的 阅读全文
posted @ 2017-10-30 12:43 WUST许志伟 阅读(1822) 评论(0) 推荐(0)
摘要: [DeeplearningAI笔记]第二章3.4 3.7 Batch NormalizationBN算法 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 3.4正则化网络的激活函数 Batch归一化会使你的参数搜索问题变得很容易,使神经网络对超参数的选择更加稳定.超参数的范围会更庞大, 阅读全文
posted @ 2017-10-29 21:38 WUST许志伟 阅读(2060) 评论(0) 推荐(0)
摘要: [DeeplearningAI笔记]第二章3.1 3.2超参数搜索技巧 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 3.1 调试处理 需要调节的参数 级别一:$\alpha$学习率是最重要的需要调节的参数 级别二: Momentum参数 $\beta$ 0 阅读全文
posted @ 2017-10-29 10:47 WUST许志伟 阅读(798) 评论(0) 推荐(0)
摘要: [DeeplearningAI笔记]第二章2.6 2.9Momentum/RMSprop/Adam与学习率衰减 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.6 动量梯度下降法(Momentum) 另一种成本函数优化算法,优化速度一般快于标准的梯度下降算 阅读全文
posted @ 2017-10-25 13:43 WUST许志伟 阅读(2560) 评论(0) 推荐(0)
摘要: [DeeplearningAI笔记]第二章2.3 2.5带修正偏差的指数加权平均 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.3 指数加权平均 举个例子,对于图中英国的温度数据计算移动平均值或者说是移动平均值(Moving average). 大体公式 阅读全文
posted @ 2017-10-24 15:23 WUST许志伟 阅读(2813) 评论(1) 推荐(3)
摘要: [DeeplearningAI笔记]第二章2.1 2.2mini batch梯度下降法 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.1 mini batch gradient descent mini batch梯度下降法 我们将训练数据组合到一个大的 阅读全文
posted @ 2017-10-24 10:51 WUST许志伟 阅读(879) 评论(0) 推荐(0)
摘要: [DeeplearningAI笔记]第二章1.10 1.12梯度消失,梯度爆炸,权重初始化 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.10 梯度消失和梯度爆炸 当训练神经网络,尤其是深度神经网络时,经常会出现的问题是梯度消失或者梯度爆炸,也就是说当你 阅读全文
posted @ 2017-10-23 15:49 WUST许志伟 阅读(671) 评论(0) 推荐(0)
摘要: [DeeplearningAI笔记]第二章1.9归一化normalization 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.9 归一化Normaliation 训练神经网络,其中一个加速训练的方法就是归一化输入(normalize inputs). 阅读全文
posted @ 2017-10-22 13:35 WUST许志伟 阅读(1356) 评论(0) 推荐(0)
摘要: [DeeplearningAI笔记]第二章1.4 1.8正则化与Dropout 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.4 正则化(regularization) 如果你的神经网络出现了过拟合(训练集与验证集得到的结果方差较大),最先想到的方法就是 阅读全文
posted @ 2017-10-20 15:26 WUST许志伟 阅读(1492) 评论(0) 推荐(0)
摘要: [DeeplearningAI笔记]第二章1.1 1.3偏差/方差/欠拟合/过拟合/训练集/验证集/测试集 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.1 训练/开发/测试集 对于一个数据集而言,可以将一个数据集分为三个部分,一部分作为训练集,一部分作 阅读全文
posted @ 2017-10-18 20:56 WUST许志伟 阅读(1538) 评论(0) 推荐(0)