会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
cloud&ken
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
12
13
14
15
16
17
下一页
2017年12月12日
反向传播算法从原理到实现
摘要: 反向传播算法从原理到实现 反向传播算法Backpropagation的python实现 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 博主接触深度学习已经一段时间,近期在与别人进行讨论时,发现自己对于反向传播算法理解的并不是十分的透彻,现在想通过这篇博文缕清一下思路.自身才疏学浅欢迎
阅读全文
posted @ 2017-12-12 17:17 WUST许志伟
阅读(7468)
评论(1)
推荐(7)
2017年11月17日
机器学习数学笔记|极大似然估计
摘要: 机器学习数学笔记|极大似然估计 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 本博客为七月在线邹博老师机器学习数学课程学习笔记 为七月在线打call!! "课程传送门" 极大似然估计 假设D是样本集合,A是参数集合,我们在D样本集固定的情况下,A取何值时,P(A|D)能取到最大. 我
阅读全文
posted @ 2017-11-17 16:37 WUST许志伟
阅读(744)
评论(0)
推荐(0)
2017年11月14日
机器学习数学笔记|大数定理中心极限定理矩估计
摘要: 机器学习数学笔记|大数定理中心极限定理矩估计 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 本博客为七月在线邹博老师机器学习数学课程学习笔记 为七月在线打call!! "课程传送门" 概率密度/概率分布函数 概率密度只是针对连续性变量而言,而分布函数是对所有随机变量取值的概率的讨论,
阅读全文
posted @ 2017-11-14 20:13 WUST许志伟
阅读(1037)
评论(0)
推荐(0)
机器学习数学笔记|偏度与峰度及其python实现
摘要: 机器学习数学笔记|偏度与峰度及其python实现 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 本博客为七月在线邹博老师机器学习数学课程学习笔记 为七月在线打call!! "课程传送门" 矩 对于随机变量X,X的K阶原点矩为 $$E(X^{k})$$ X的K阶中心矩为 $$E([X
阅读全文
posted @ 2017-11-14 15:15 WUST许志伟
阅读(5256)
评论(0)
推荐(0)
2017年11月13日
机器学习数学笔记|期望方差协方差矩阵
摘要: 机器学习数学笔记|期望方差协方差矩阵 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 本博客为七月在线邹博老师机器学习数学课程学习笔记 为七月在线打call!! "课程传送门" 简单概率计算 Example1 我们的思路是,若A先到达则假设A是一条长1cm的线段.B出现的概率是一个点,
阅读全文
posted @ 2017-11-13 18:52 WUST许志伟
阅读(4092)
评论(0)
推荐(0)
机器学习数学笔记|概率论基础常见概型分布期望与方差
摘要: 机器学习数学笔记|概率论基础常见概型分布期望与方差 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 本博客为七月在线邹博老师机器学习数学课程学习笔记 为七月在线打call!! "课程传送门" 概率论 对概率的认识,x表示一个事件,则P(x)表示事件发生的概率,其中不可能发生的事件P(x
阅读全文
posted @ 2017-11-13 11:29 WUST许志伟
阅读(4658)
评论(0)
推荐(0)
2017年11月12日
机器学习数学笔记|Taylor展开式与拟牛顿
摘要: 机器学习数学笔记|Taylor展开式与拟牛顿 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 原创文章,如需转载请保留出处 本博客为七月在线邹博老师机器学习数学课程学习笔记 为七月在线打call!! "课程传送门" Taylor 展式与拟牛顿 索引 taylor展式 计算函数值 解释g
阅读全文
posted @ 2017-11-12 16:07 WUST许志伟
阅读(2811)
评论(0)
推荐(1)
2017年11月10日
机器学习数学笔记|微积分梯度jensen不等式
摘要: 机器学习数学笔记|微积分梯度jensen不等式 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 原创文章,如需转载请保留出处 本博客为七月在线邹博老师机器学习数学课程学习笔记 为七月在线打call!! "课程传送门" 索引 微积分,梯度和Jensen不等式 Taylor展开及其应用 常
阅读全文
posted @ 2017-11-10 19:25 WUST许志伟
阅读(3008)
评论(0)
推荐(3)
2017年11月7日
[DeeplearningAI笔记]第三章2.9-2.10端到端学习
摘要: [DeeplearningAI笔记]第三章2.9 2.10端到端学习 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.9 什么是端到端学习 What is End to end deeplearning 以前有一些数据处理系统或者学习系统,它们需要多个阶段
阅读全文
posted @ 2017-11-07 17:15 WUST许志伟
阅读(1585)
评论(0)
推荐(0)
2017年11月6日
[DeeplearningAI笔记]第三章2.7-2.8多任务学习/迁移学习
摘要: [DeeplearningAI笔记]第三章2.7 2.8多任务学习/迁移学习 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.7 迁移学习 Transfer Learninig 神经网络可以从一个任务中习得知识,并将这些知识应用到另一个独立的任务中.例如:
阅读全文
posted @ 2017-11-06 17:33 WUST许志伟
阅读(3606)
评论(2)
推荐(3)
2017年11月5日
[DeeplearningAI笔记]第三章2.4-2.6不匹配的训练和开发/测试数据
摘要: [DeeplearningAI笔记]第三章2.4 2.6不匹配的训练和开发/测试数据 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.4在不同分布上训练和测试数据 在深度学习时代,越来越多的团队使用和开发集/测试集不同分布的数据来训练模型.下面解释一些方法
阅读全文
posted @ 2017-11-05 20:34 WUST许志伟
阅读(1421)
评论(0)
推荐(0)
[DeeplearningAI笔记]第三章2.1-2.3误差分析
摘要: 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.1 误差分析 训练出来的模型往往没有达到人类水平的效果,为了得到人类水平的结果,我们对原因进行分析,这个过程称为误差分析. 实例剖析 1. 例如此时你正在训练一个猫分类器,其中正确率为90%,这离目标有一定的
阅读全文
posted @ 2017-11-05 14:51 WUST许志伟
阅读(652)
评论(0)
推荐(0)
2017年11月1日
[DeeplearningAI笔记]第三章1.8-1.12可避免误差与模型改善
摘要: [DeeplearningAI笔记]第三章1.8 1.12可避免误差与模型改善 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 1.8 为什么是人的表现 今天,机器学习算法可以与人类水平的表现性能竞争,因为它们在很多应用程序中更有生产力和更可行。并且设计和构建机器学习系统的工作流程都比
阅读全文
posted @ 2017-11-01 13:37 WUST许志伟
阅读(884)
评论(0)
推荐(0)
2017年10月31日
[DeeplearningAI笔记]第三章1.4-1.7开发集测试集划分与满足与优化指标
摘要: [DeeplearningAI笔记]第三章1.4 1.7开发集测试集划分与满足与优化指标 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.4 满足和优化指标 Stisficing and optimizing metrics 有时候把你要考虑的所有事情组合
阅读全文
posted @ 2017-10-31 13:19 WUST许志伟
阅读(777)
评论(0)
推荐(0)
2017年10月30日
[DeeplearningAI笔记]第三章1.1-1.3查准率/查全率/F1分数
摘要: [DeeplearningAI笔记]第三章1.1 1.3查准率/查全率/F1分数 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.1 什么是ML策略 机器学习策略简介 情景模拟 假设你正在训练一个分类器,你的系统已经达到了90%准确率,但是对于你的应用程序
阅读全文
posted @ 2017-10-30 21:06 WUST许志伟
阅读(932)
评论(0)
推荐(0)
[DeeplearningAI笔记]第二章3.8-3.9分类与softmax
摘要: [DeeplearningAI笔记]第二章3.8 3.9分类与softmax 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 3.8 Softmax regression Softmax回归.能让你在试图识别某一分类时作出预测,或者说是多种分类的一个,不只是识别两个分类. 以识别图片的
阅读全文
posted @ 2017-10-30 12:43 WUST许志伟
阅读(1822)
评论(0)
推荐(0)
2017年10月29日
[DeeplearningAI笔记]第二章3.4-3.7-Batch NormalizationBN算法
摘要: [DeeplearningAI笔记]第二章3.4 3.7 Batch NormalizationBN算法 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 3.4正则化网络的激活函数 Batch归一化会使你的参数搜索问题变得很容易,使神经网络对超参数的选择更加稳定.超参数的范围会更庞大,
阅读全文
posted @ 2017-10-29 21:38 WUST许志伟
阅读(2060)
评论(0)
推荐(0)
[DeeplearningAI笔记]第二章3.1-3.2超参数搜索技巧
摘要: [DeeplearningAI笔记]第二章3.1 3.2超参数搜索技巧 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 3.1 调试处理 需要调节的参数 级别一:$\alpha$学习率是最重要的需要调节的参数 级别二: Momentum参数 $\beta$ 0
阅读全文
posted @ 2017-10-29 10:47 WUST许志伟
阅读(798)
评论(0)
推荐(0)
2017年10月25日
[DeeplearningAI笔记]第二章2.6-2.9Momentum/RMSprop/Adam与学习率衰减
摘要: [DeeplearningAI笔记]第二章2.6 2.9Momentum/RMSprop/Adam与学习率衰减 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.6 动量梯度下降法(Momentum) 另一种成本函数优化算法,优化速度一般快于标准的梯度下降算
阅读全文
posted @ 2017-10-25 13:43 WUST许志伟
阅读(2560)
评论(0)
推荐(0)
2017年10月24日
[DeeplearningAI笔记]第二章2.3-2.5带修正偏差的指数加权平均
摘要: [DeeplearningAI笔记]第二章2.3 2.5带修正偏差的指数加权平均 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.3 指数加权平均 举个例子,对于图中英国的温度数据计算移动平均值或者说是移动平均值(Moving average). 大体公式
阅读全文
posted @ 2017-10-24 15:23 WUST许志伟
阅读(2813)
评论(1)
推荐(3)
[DeeplearningAI笔记]第二章2.1-2.2mini-batch梯度下降法
摘要: [DeeplearningAI笔记]第二章2.1 2.2mini batch梯度下降法 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.1 mini batch gradient descent mini batch梯度下降法 我们将训练数据组合到一个大的
阅读全文
posted @ 2017-10-24 10:51 WUST许志伟
阅读(879)
评论(0)
推荐(0)
2017年10月23日
[DeeplearningAI笔记]第二章1.10-1.12梯度消失,梯度爆炸,权重初始化
摘要: [DeeplearningAI笔记]第二章1.10 1.12梯度消失,梯度爆炸,权重初始化 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.10 梯度消失和梯度爆炸 当训练神经网络,尤其是深度神经网络时,经常会出现的问题是梯度消失或者梯度爆炸,也就是说当你
阅读全文
posted @ 2017-10-23 15:49 WUST许志伟
阅读(671)
评论(0)
推荐(0)
2017年10月22日
[DeeplearningAI笔记]第二章1.9归一化normalization
摘要: [DeeplearningAI笔记]第二章1.9归一化normalization 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.9 归一化Normaliation 训练神经网络,其中一个加速训练的方法就是归一化输入(normalize inputs).
阅读全文
posted @ 2017-10-22 13:35 WUST许志伟
阅读(1356)
评论(0)
推荐(0)
2017年10月20日
[DeeplearningAI笔记]第二章1.4-1.8正则化与Dropout
摘要: [DeeplearningAI笔记]第二章1.4 1.8正则化与Dropout 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.4 正则化(regularization) 如果你的神经网络出现了过拟合(训练集与验证集得到的结果方差较大),最先想到的方法就是
阅读全文
posted @ 2017-10-20 15:26 WUST许志伟
阅读(1492)
评论(0)
推荐(0)
2017年10月18日
[DeeplearningAI笔记]第二章1.1-1.3偏差/方差/欠拟合/过拟合/训练集/验证集/测试集
摘要: [DeeplearningAI笔记]第二章1.1 1.3偏差/方差/欠拟合/过拟合/训练集/验证集/测试集 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.1 训练/开发/测试集 对于一个数据集而言,可以将一个数据集分为三个部分,一部分作为训练集,一部分作
阅读全文
posted @ 2017-10-18 20:56 WUST许志伟
阅读(1538)
评论(0)
推荐(0)
上一页
1
···
12
13
14
15
16
17
下一页
公告