摘要: 深层神经网络(Deep L-layer neural network) 目前为止我们已经学习了只有一个单独隐藏层的神经网络的正向传播和反向传播,还有逻辑回归,并且你还学到了向量化,这在随机初始化权重时是很重要。 目前所要做的是把这些理念集合起来,就可以执行你自己的深度神经网络。 复习下前面21个笔记 阅读全文
posted @ 2020-02-25 13:11 刘通1997 阅读(480) 评论(0) 推荐(0)
摘要: 激活函数的选择: 西格玛只在二元分类的输出层还可以用,但在二元分类中,其效果不如tanh,效果不好的原因是当Z大时,斜率变化很小,会导致学习效率很差,从而很影响运算的速度。绝大多数情况下用的激活函数是ReLu,带泄露的ReLu效果更好,但并不常用。 使用非线性激活函数的原因:如果用线性激活函数,那么 阅读全文
posted @ 2020-02-25 12:54 刘通1997 阅读(360) 评论(0) 推荐(0)
摘要: 通过这4行代码即可实现神经网络的输出。 如果用for循环进行代码实现: 使用向量化的方法: 训练集一共有m个样本,每个样本有n个特征值。把训练集所有的特征值放在一起构成X矩阵。 Z[1]是所有样本第一层的输出值。行数与第一层的节点数相同A[1]是所有样本第一层的经过西格玛处理的输出值。 阅读全文
posted @ 2020-02-25 12:52 刘通1997 阅读(626) 评论(0) 推荐(0)
摘要: Python-numpy中有一种很高效的方法:广播。 下面介绍一下广播。 实例:对于这个矩阵,如果想求每列元素的和,怎么才能不用for循环? (1,4)指的是一行四列的矩阵;axis决定了是横向(行)求和还是竖向(列)求和。为0时竖向,1时横向;在矩阵前*100,是让矩阵里面的数为百分数;resha 阅读全文
posted @ 2020-02-25 12:51 刘通1997 阅读(1000) 评论(0) 推荐(0)
摘要: 梯度下降法: 埃尔法为学习率,是人为定义的,w:为更新后的w。b:为更新后的b Logistic回归的梯度下降法 梯度下降法代码逻辑如下,但该代码有缺点,因为这里面有两个for循环,而for循环会使神经网络效率变低。所以要想办法避免FOR循环。向量化就是一个很好的方法。 对于向量化计算u的方法: 首 阅读全文
posted @ 2020-02-25 12:43 刘通1997 阅读(358) 评论(0) 推荐(0)
摘要: Logistic回归 在Logistic回归中,损失函数L定义为 成本函数 J 损失函数是单个训练样本的误差,而成本函数是所有训练样本误差的平均值。 之所以选择这个损失函数,是因为该损失函数L与w、b的图像为下图,是非凸的,即只有一个极小值点 阅读全文
posted @ 2020-02-24 15:44 刘通1997 阅读(205) 评论(0) 推荐(0)
摘要: 转自 huaweizte123的CSDN博客 链接 https://blog.csdn.net/huaweizte123/article/details/78803045 第一步、向前传播得到预测数据:向前传播的过程,即数据从输入层输入,经过隐含层,输出层的计算得到预测值,预测值为输出层的输出结果。 阅读全文
posted @ 2020-01-18 22:56 刘通1997 阅读(780) 评论(0) 推荐(0)
摘要: 一个定义在有理数集上的实数函数 f,对一切有理数x和y,都有 f(x+y)= f(x)+ f(y)。 证明:对有理数x有 f(x)= kx,其中k为实数。 令n为大于0的正整数,则 f(nx)= f(n-1 x)+f(x) f(n-1 x)= f(n-2 x)+f(x) ············ f 阅读全文
posted @ 2019-10-16 11:55 刘通1997 阅读(307) 评论(0) 推荐(0)
摘要: 题目 巴斯银行发行的硬币在一面上铸有H,在另一面上铸有T,哈利有枚这样的硬币并将这些硬币从左至 右排成一行,他反复地进行如下操作:如果恰有k(>0)枚硬币H面朝上,则他将从左至右的第k枚硬币 翻转;如果所有硬币都是T面朝上则停止操作,例如:当n=3,并且初始状态是THT,则操作过程为THT→HHT→ 阅读全文
posted @ 2019-08-19 23:16 刘通1997 阅读(451) 评论(0) 推荐(0)
摘要: 题目 设n>=3,考虑一个圆上由2n-1个不同点构成的集合E。现给E中恰好k个点染上黑色,如果至少有一对黑点使得这两个黑点之间的弧上(两段弧中的某一个)包含恰好E中的n个点,就成这样的染色方法是“好的”。 试找出对于集合E能保证任意一种染色方法都是“好的”的最小的k值。 解答 将问题转化为:一个圆上 阅读全文
posted @ 2019-08-19 15:52 刘通1997 阅读(281) 评论(0) 推荐(0)