随笔分类 - 深度学习
摘要:1.Mini-batch batch:之前所用的都是将m个样本放在一起组成向量来就行训练,称为batch,所存在的问题:当样本的数量比较庞大的时候,迭代一次所需要的时间比较多 ,这种梯度下降算法成为Batch Gradient Descent 为了解决这一问题引入 Mini-batch Gradie
阅读全文
摘要:Gradient Checking¶ Welcome to the final assignment for this week! In this assignment you will learn to implement and use gradient checking. You are pa
阅读全文
摘要:最后一个题跑出来的结果不知道为什么和答案相差甚远.......== Regularization Welcome to the second assignment of this week. Deep Learning models have so much flexibility and capa
阅读全文
摘要:Initialization Welcome to the first assignment of "Improving Deep Neural Networks". Training your neural network requires specifying an initial value
阅读全文
摘要:1point 1. 第 1 个问题 If you have 10,000,000 examples, how would you split the train/dev/test set? 98% train . 1% dev . 1% test √ 33% train . 33% dev . 33
阅读全文
摘要:1.1 Train/dev/test sets 在构建一个神经网络的时候我们往往需要设计很多参数,如:layers,learning rates ,acivation functions,hidden units, 而这些参数我们往往不能一次性就能设计到成为了最佳的参数,往往是我们自己有一些想法,然
阅读全文
摘要:Deep Neural Network for Image Classification: Application¶ When you finish this, you will have finished the last programming assignment of Week 4, and
阅读全文
摘要:import h5py import matplotlib.pyplot as plt from testCases import * from dnn_utils import sigmoid, sigmoid_backward, relu, relu_backward plt.rcParams[
阅读全文
摘要:What is the “cache” used for in our implementation of forward propagation and backward propagation? [ ] It is used to cache the intermediate values of
阅读全文
摘要:之前一章讲了 浅层神经网络,这一章讲的是深层神经网络 深层神经网络与浅层神经网络的区别是:隐藏层比浅层神经网络多,从命名规则上来说,有1,2,5个隐藏层的神经网络可以称为1 hidden layer,2 hidden layers,5 hidden layers 深层神经网络中的正向传播与之前举例的
阅读全文
摘要:Planar data classification with one hidden layer Welcome to your week 3 programming assignment. It's time to build your first neural network, which wi
阅读全文
摘要:Week 3 Quiz - Shallow Neural Networks Which of the following are true? (Check all that apply.) Notice that I only list correct options. X is a matrix
阅读全文
摘要:第二章总结了二分分类与逻辑回归,第三章关于浅层神经网络 神经网络的结构与逻辑回归类似,只是神经网络的层数比逻辑回归多了一层,多出的中间一层叫隐藏层,那么,神经网络的计算就相当于多进行一次逻辑回归的计算 正向传播过程分成两层,第一层是输入层到隐藏层,用上标[1]来表示:第二层是隐藏层到输出层,用上标[
阅读全文
摘要:Logistic Regression with a Neural Network mindset Welcome to your first (required) programming assignment! You will build a logistic regression classi
阅读全文
摘要:coursea链接:https://www.coursera.org/learn/neural-networks-deep-learning/notebook/Zh0CU/python-basics-with-numpy-optionalhttps://www.coursera.org/learn/
阅读全文
摘要:参考自:https://blog.csdn.net/u013733326/article/details/79865858 第2周测验 - 神经网络基础 神经元节点计算什么? 【 】神经元节点先计算激活函数,再计算线性函数(z = Wx + b) 【★】神经元节点先计算线性函数(z = Wx + b
阅读全文
摘要:第一周测验 - 深度学习简介 参考自:https://blog.csdn.net/u013733326/article/details/79862336 和“AI是新电力”相类似的说法是什么? 【 】AI为我们的家庭和办公室的个人设备供电,类似于电力。 【 】通过“智能电网”,AI提供新的电能。 【
阅读全文
摘要:神经网络是一种灵感来自于大脑工作的算法. 举一个例子:假设房子的价格与房子大小有关,为了预测房子的价格,我们可以先可以搜集一批房子价格对有房子大小的数据,为了能够进行分析,我们需要建立一个模型,来实现输入size x时能够输出对应的price y. 将我们所搜集到的数据关系绘制成一个图形表示,他们是
阅读全文
摘要:对于非向量化,我们要求得z的值,必须用到for循环,但是当数据量非常庞大的时候,for循环所用的时间会比较多,这个时候可以使用向量运算来提高速度 用python的函数np.dot实现两个向量/矩阵 相乘. SIMD:为了加快深度学习神经网络运算速度,可以使用比CPU运算能力更强大的GPU。事实上,G
阅读全文
摘要:之前我们已经了解了Coss Function的定义,它是一个convex,所以我们能找到它的全局最优解,我们可以先可以先随便选取一组w,b,求得刚开始J(w,b)对w的偏导,用公式: 我们可以对w进行更新,其中α为学习率,为梯度下降的步长,α越大,步长越大,同理也可以对b更新,最后经过一步步迭代,我
阅读全文
浙公网安备 33010602011771号