07 2018 档案
摘要:Optimization Methods Until now, you've always used Gradient Descent to update the parameters and minimize the cost. In this notebook, you will learn m
阅读全文
摘要:1. 第 1 个问题 Which notation would you use to denote the 3rd layer’s activations when the input is the 7th example from the 8th minibatch? a^{[8]\{3\}(7)
阅读全文
摘要:1.Mini-batch batch:之前所用的都是将m个样本放在一起组成向量来就行训练,称为batch,所存在的问题:当样本的数量比较庞大的时候,迭代一次所需要的时间比较多 ,这种梯度下降算法成为Batch Gradient Descent 为了解决这一问题引入 Mini-batch Gradie
阅读全文
摘要:Gradient Checking¶ Welcome to the final assignment for this week! In this assignment you will learn to implement and use gradient checking. You are pa
阅读全文
摘要:最后一个题跑出来的结果不知道为什么和答案相差甚远.......== Regularization Welcome to the second assignment of this week. Deep Learning models have so much flexibility and capa
阅读全文
摘要:Initialization Welcome to the first assignment of "Improving Deep Neural Networks". Training your neural network requires specifying an initial value
阅读全文
摘要:1point 1. 第 1 个问题 If you have 10,000,000 examples, how would you split the train/dev/test set? 98% train . 1% dev . 1% test √ 33% train . 33% dev . 33
阅读全文
摘要:1.1 Train/dev/test sets 在构建一个神经网络的时候我们往往需要设计很多参数,如:layers,learning rates ,acivation functions,hidden units, 而这些参数我们往往不能一次性就能设计到成为了最佳的参数,往往是我们自己有一些想法,然
阅读全文
摘要:Deep Neural Network for Image Classification: Application¶ When you finish this, you will have finished the last programming assignment of Week 4, and
阅读全文
摘要:import h5py import matplotlib.pyplot as plt from testCases import * from dnn_utils import sigmoid, sigmoid_backward, relu, relu_backward plt.rcParams[
阅读全文
摘要:What is the “cache” used for in our implementation of forward propagation and backward propagation? [ ] It is used to cache the intermediate values of
阅读全文
摘要:之前一章讲了 浅层神经网络,这一章讲的是深层神经网络 深层神经网络与浅层神经网络的区别是:隐藏层比浅层神经网络多,从命名规则上来说,有1,2,5个隐藏层的神经网络可以称为1 hidden layer,2 hidden layers,5 hidden layers 深层神经网络中的正向传播与之前举例的
阅读全文
摘要:Planar data classification with one hidden layer Welcome to your week 3 programming assignment. It's time to build your first neural network, which wi
阅读全文
摘要:Week 3 Quiz - Shallow Neural Networks Which of the following are true? (Check all that apply.) Notice that I only list correct options. X is a matrix
阅读全文
摘要:第二章总结了二分分类与逻辑回归,第三章关于浅层神经网络 神经网络的结构与逻辑回归类似,只是神经网络的层数比逻辑回归多了一层,多出的中间一层叫隐藏层,那么,神经网络的计算就相当于多进行一次逻辑回归的计算 正向传播过程分成两层,第一层是输入层到隐藏层,用上标[1]来表示:第二层是隐藏层到输出层,用上标[
阅读全文
摘要:Logistic Regression with a Neural Network mindset Welcome to your first (required) programming assignment! You will build a logistic regression classi
阅读全文
摘要:coursea链接:https://www.coursera.org/learn/neural-networks-deep-learning/notebook/Zh0CU/python-basics-with-numpy-optionalhttps://www.coursera.org/learn/
阅读全文
摘要:参考自:https://blog.csdn.net/u013733326/article/details/79865858 第2周测验 - 神经网络基础 神经元节点计算什么? 【 】神经元节点先计算激活函数,再计算线性函数(z = Wx + b) 【★】神经元节点先计算线性函数(z = Wx + b
阅读全文
摘要:第一周测验 - 深度学习简介 参考自:https://blog.csdn.net/u013733326/article/details/79862336 和“AI是新电力”相类似的说法是什么? 【 】AI为我们的家庭和办公室的个人设备供电,类似于电力。 【 】通过“智能电网”,AI提供新的电能。 【
阅读全文
摘要:神经网络是一种灵感来自于大脑工作的算法. 举一个例子:假设房子的价格与房子大小有关,为了预测房子的价格,我们可以先可以搜集一批房子价格对有房子大小的数据,为了能够进行分析,我们需要建立一个模型,来实现输入size x时能够输出对应的price y. 将我们所搜集到的数据关系绘制成一个图形表示,他们是
阅读全文
摘要:对于非向量化,我们要求得z的值,必须用到for循环,但是当数据量非常庞大的时候,for循环所用的时间会比较多,这个时候可以使用向量运算来提高速度 用python的函数np.dot实现两个向量/矩阵 相乘. SIMD:为了加快深度学习神经网络运算速度,可以使用比CPU运算能力更强大的GPU。事实上,G
阅读全文
摘要:之前我们已经了解了Coss Function的定义,它是一个convex,所以我们能找到它的全局最优解,我们可以先可以先随便选取一组w,b,求得刚开始J(w,b)对w的偏导,用公式: 我们可以对w进行更新,其中α为学习率,为梯度下降的步长,α越大,步长越大,同理也可以对b更新,最后经过一步步迭代,我
阅读全文
摘要:discrepancy:矛盾,相差 为了训练参数w,b,我们需要定义一个成本函数 损失函数: 损失函数测量预测(p()和期望输出(y()之间的差异。换句话说。损失函数计算单个培训示例的错误。 损失函数用下面一个,因为上面有一个为非凸行,不能得到全局的最优解,下面一个才能得到全局的最优解. 成本函数:
阅读全文
摘要:regression:回归 supervised:有监督的 logistic回归是一种学习算法被用于有监督学习问题,当y全都是0或1时 例子:判断是否有猫 给定一个由特征向量x代表的图像,那个算法将会估计猫是否在那个图像里的可能性 logistic回归的参数如下:
阅读全文
摘要:binary:二进制 discret:离散的,不连续的 vector:向量 matrice:矩阵 pixel:像素 intensity:强度 dimension:维度 关于第一章的神经网络认识:初次接触,暂时不做笔记,参考了一篇笔记:https://blog.csdn.net/red_stone1/
阅读全文
摘要:参考自:https://blog.csdn.net/qq_15695761/article/details/77502788 当前使用ubuntu14.04 1.添加python3.6安装包,并安装(也可以去官网下载安装包) [html] view plain copy <code class="l
阅读全文
浙公网安备 33010602011771号