随笔分类 - 吴恩达课程一:神经网络和深度学习笔记
学习笔记
摘要:4.2深层网络中的向前传播 4.3核对矩阵的维数 4.5:搭建深层神经网络块
阅读全文
摘要:3.2神经网络的表示 该神经网络由两层组成,隐藏层数为一 隐藏层的含义是:在训练集中,这些中间节点的真正数值我们是不知道的,在训练集你看不到他们的数值。你只能看到输入值,也能看见输出值。这就是所谓的“隐藏层” 第零层:向量X表示输入特征,输入特征的数值还有另外一种表示方式,用a[0]来表示,即X=a
阅读全文
摘要:2.7计算图 2.8计算图的导数计算 2.9 logistic回归中的梯度下降法 2.10 m个样本的梯度下降 2.11向量化比for循环可以节省大量的时间,运行速度会更快 2.12 向量化的更多例子 2.13 向量化logistic 回归 2.15python中的广播 https://blog.c
阅读全文

浙公网安备 33010602011771号