摘要:
深层神经网络(Deep L-layer neural network) 目前为止我们已经学习了只有一个单独隐藏层的神经网络的正向传播和反向传播,还有逻辑回归,并且你还学到了向量化,这在随机初始化权重时是很重要。 目前所要做的是把这些理念集合起来,就可以执行你自己的深度神经网络。 复习下前面21个笔记 阅读全文
posted @ 2020-02-25 13:11
刘通1997
阅读(480)
评论(0)
推荐(0)
摘要:
激活函数的选择: 西格玛只在二元分类的输出层还可以用,但在二元分类中,其效果不如tanh,效果不好的原因是当Z大时,斜率变化很小,会导致学习效率很差,从而很影响运算的速度。绝大多数情况下用的激活函数是ReLu,带泄露的ReLu效果更好,但并不常用。 使用非线性激活函数的原因:如果用线性激活函数,那么 阅读全文
posted @ 2020-02-25 12:54
刘通1997
阅读(360)
评论(0)
推荐(0)
摘要:
通过这4行代码即可实现神经网络的输出。 如果用for循环进行代码实现: 使用向量化的方法: 训练集一共有m个样本,每个样本有n个特征值。把训练集所有的特征值放在一起构成X矩阵。 Z[1]是所有样本第一层的输出值。行数与第一层的节点数相同A[1]是所有样本第一层的经过西格玛处理的输出值。 阅读全文
posted @ 2020-02-25 12:52
刘通1997
阅读(626)
评论(0)
推荐(0)
摘要:
Python-numpy中有一种很高效的方法:广播。 下面介绍一下广播。 实例:对于这个矩阵,如果想求每列元素的和,怎么才能不用for循环? (1,4)指的是一行四列的矩阵;axis决定了是横向(行)求和还是竖向(列)求和。为0时竖向,1时横向;在矩阵前*100,是让矩阵里面的数为百分数;resha 阅读全文
posted @ 2020-02-25 12:51
刘通1997
阅读(1000)
评论(0)
推荐(0)
摘要:
梯度下降法: 埃尔法为学习率,是人为定义的,w:为更新后的w。b:为更新后的b Logistic回归的梯度下降法 梯度下降法代码逻辑如下,但该代码有缺点,因为这里面有两个for循环,而for循环会使神经网络效率变低。所以要想办法避免FOR循环。向量化就是一个很好的方法。 对于向量化计算u的方法: 首 阅读全文
posted @ 2020-02-25 12:43
刘通1997
阅读(358)
评论(0)
推荐(0)

浙公网安备 33010602011771号