07 2018 档案

摘要:Optimization Methods Until now, you've always used Gradient Descent to update the parameters and minimize the cost. In this notebook, you will learn m 阅读全文
posted @ 2018-07-31 22:43 Dar_Alpha 阅读(495) 评论(0) 推荐(0)
摘要:1. 第 1 个问题 Which notation would you use to denote the 3rd layer’s activations when the input is the 7th example from the 8th minibatch? a^{[8]\{3\}(7) 阅读全文
posted @ 2018-07-30 21:59 Dar_Alpha 阅读(657) 评论(0) 推荐(0)
摘要:1.Mini-batch batch:之前所用的都是将m个样本放在一起组成向量来就行训练,称为batch,所存在的问题:当样本的数量比较庞大的时候,迭代一次所需要的时间比较多 ,这种梯度下降算法成为Batch Gradient Descent 为了解决这一问题引入 Mini-batch Gradie 阅读全文
posted @ 2018-07-30 11:18 Dar_Alpha 阅读(827) 评论(0) 推荐(1)
摘要:Gradient Checking¶ Welcome to the final assignment for this week! In this assignment you will learn to implement and use gradient checking. You are pa 阅读全文
posted @ 2018-07-29 12:00 Dar_Alpha 阅读(1006) 评论(0) 推荐(0)
摘要:最后一个题跑出来的结果不知道为什么和答案相差甚远.......== Regularization Welcome to the second assignment of this week. Deep Learning models have so much flexibility and capa 阅读全文
posted @ 2018-07-28 21:43 Dar_Alpha 阅读(1094) 评论(2) 推荐(0)
摘要:Initialization Welcome to the first assignment of "Improving Deep Neural Networks". Training your neural network requires specifying an initial value 阅读全文
posted @ 2018-07-28 17:30 Dar_Alpha 阅读(584) 评论(0) 推荐(0)
摘要:1point 1. 第 1 个问题 If you have 10,000,000 examples, how would you split the train/dev/test set? 98% train . 1% dev . 1% test √ 33% train . 33% dev . 33 阅读全文
posted @ 2018-07-28 10:33 Dar_Alpha 阅读(741) 评论(0) 推荐(0)
摘要:1.1 Train/dev/test sets 在构建一个神经网络的时候我们往往需要设计很多参数,如:layers,learning rates ,acivation functions,hidden units, 而这些参数我们往往不能一次性就能设计到成为了最佳的参数,往往是我们自己有一些想法,然 阅读全文
posted @ 2018-07-27 22:19 Dar_Alpha 阅读(588) 评论(0) 推荐(1)
摘要:Deep Neural Network for Image Classification: Application¶ When you finish this, you will have finished the last programming assignment of Week 4, and 阅读全文
posted @ 2018-07-26 18:04 Dar_Alpha 阅读(704) 评论(0) 推荐(0)
摘要:import h5py import matplotlib.pyplot as plt from testCases import * from dnn_utils import sigmoid, sigmoid_backward, relu, relu_backward plt.rcParams[ 阅读全文
posted @ 2018-07-26 15:55 Dar_Alpha 阅读(1285) 评论(0) 推荐(0)
摘要:What is the “cache” used for in our implementation of forward propagation and backward propagation? [ ] It is used to cache the intermediate values of 阅读全文
posted @ 2018-07-25 21:18 Dar_Alpha 阅读(399) 评论(0) 推荐(0)
摘要:之前一章讲了 浅层神经网络,这一章讲的是深层神经网络 深层神经网络与浅层神经网络的区别是:隐藏层比浅层神经网络多,从命名规则上来说,有1,2,5个隐藏层的神经网络可以称为1 hidden layer,2 hidden layers,5 hidden layers 深层神经网络中的正向传播与之前举例的 阅读全文
posted @ 2018-07-25 20:45 Dar_Alpha 阅读(1343) 评论(0) 推荐(0)
摘要:Planar data classification with one hidden layer Welcome to your week 3 programming assignment. It's time to build your first neural network, which wi 阅读全文
posted @ 2018-07-25 13:51 Dar_Alpha 阅读(858) 评论(0) 推荐(0)
摘要:Week 3 Quiz - Shallow Neural Networks Which of the following are true? (Check all that apply.) Notice that I only list correct options. X is a matrix 阅读全文
posted @ 2018-07-23 20:42 Dar_Alpha 阅读(448) 评论(0) 推荐(0)
摘要:第二章总结了二分分类与逻辑回归,第三章关于浅层神经网络 神经网络的结构与逻辑回归类似,只是神经网络的层数比逻辑回归多了一层,多出的中间一层叫隐藏层,那么,神经网络的计算就相当于多进行一次逻辑回归的计算 正向传播过程分成两层,第一层是输入层到隐藏层,用上标[1]来表示:第二层是隐藏层到输出层,用上标[ 阅读全文
posted @ 2018-07-23 20:13 Dar_Alpha 阅读(967) 评论(0) 推荐(0)
摘要:Logistic Regression with a Neural Network mindset Welcome to your first (required) programming assignment! You will build a logistic regression classi 阅读全文
posted @ 2018-07-22 09:27 Dar_Alpha 阅读(1412) 评论(0) 推荐(0)
摘要:coursea链接:https://www.coursera.org/learn/neural-networks-deep-learning/notebook/Zh0CU/python-basics-with-numpy-optionalhttps://www.coursera.org/learn/ 阅读全文
posted @ 2018-07-21 09:18 Dar_Alpha 阅读(394) 评论(0) 推荐(0)
摘要:参考自:https://blog.csdn.net/u013733326/article/details/79865858 第2周测验 - 神经网络基础 神经元节点计算什么? 【 】神经元节点先计算激活函数,再计算线性函数(z = Wx + b) 【★】神经元节点先计算线性函数(z = Wx + b 阅读全文
posted @ 2018-07-17 20:28 Dar_Alpha 阅读(394) 评论(0) 推荐(0)
摘要:第一周测验 - 深度学习简介 参考自:https://blog.csdn.net/u013733326/article/details/79862336 和“AI是新电力”相类似的说法是什么? 【 】AI为我们的家庭和办公室的个人设备供电,类似于电力。 【 】通过“智能电网”,AI提供新的电能。 【 阅读全文
posted @ 2018-07-17 16:32 Dar_Alpha 阅读(378) 评论(0) 推荐(0)
摘要:神经网络是一种灵感来自于大脑工作的算法. 举一个例子:假设房子的价格与房子大小有关,为了预测房子的价格,我们可以先可以搜集一批房子价格对有房子大小的数据,为了能够进行分析,我们需要建立一个模型,来实现输入size x时能够输出对应的price y. 将我们所搜集到的数据关系绘制成一个图形表示,他们是 阅读全文
posted @ 2018-07-17 16:09 Dar_Alpha 阅读(406) 评论(0) 推荐(0)
摘要:对于非向量化,我们要求得z的值,必须用到for循环,但是当数据量非常庞大的时候,for循环所用的时间会比较多,这个时候可以使用向量运算来提高速度 用python的函数np.dot实现两个向量/矩阵 相乘. SIMD:为了加快深度学习神经网络运算速度,可以使用比CPU运算能力更强大的GPU。事实上,G 阅读全文
posted @ 2018-07-17 10:30 Dar_Alpha 阅读(347) 评论(0) 推荐(0)
摘要:之前我们已经了解了Coss Function的定义,它是一个convex,所以我们能找到它的全局最优解,我们可以先可以先随便选取一组w,b,求得刚开始J(w,b)对w的偏导,用公式: 我们可以对w进行更新,其中α为学习率,为梯度下降的步长,α越大,步长越大,同理也可以对b更新,最后经过一步步迭代,我 阅读全文
posted @ 2018-07-15 21:44 Dar_Alpha 阅读(355) 评论(0) 推荐(0)
摘要:discrepancy:矛盾,相差 为了训练参数w,b,我们需要定义一个成本函数 损失函数: 损失函数测量预测(p()和期望输出(y()之间的差异。换句话说。损失函数计算单个培训示例的错误。 损失函数用下面一个,因为上面有一个为非凸行,不能得到全局的最优解,下面一个才能得到全局的最优解. 成本函数: 阅读全文
posted @ 2018-07-14 17:06 Dar_Alpha 阅读(264) 评论(0) 推荐(0)
摘要:regression:回归 supervised:有监督的 logistic回归是一种学习算法被用于有监督学习问题,当y全都是0或1时 例子:判断是否有猫 给定一个由特征向量x代表的图像,那个算法将会估计猫是否在那个图像里的可能性 logistic回归的参数如下: 阅读全文
posted @ 2018-07-14 16:37 Dar_Alpha 阅读(194) 评论(0) 推荐(0)
摘要:binary:二进制 discret:离散的,不连续的 vector:向量 matrice:矩阵 pixel:像素 intensity:强度 dimension:维度 关于第一章的神经网络认识:初次接触,暂时不做笔记,参考了一篇笔记:https://blog.csdn.net/red_stone1/ 阅读全文
posted @ 2018-07-14 15:45 Dar_Alpha 阅读(432) 评论(0) 推荐(0)
摘要:参考自:https://blog.csdn.net/qq_15695761/article/details/77502788 当前使用ubuntu14.04 1.添加python3.6安装包,并安装(也可以去官网下载安装包) [html] view plain copy <code class="l 阅读全文
posted @ 2018-07-07 13:45 Dar_Alpha 阅读(2119) 评论(0) 推荐(0)