摘要:
目录 神经网络表示 激活函数 不要把所有参数都初始化为0 反向计算求导 一、神经网络表示 神经网络层数= 隐藏数+输出层(1) 输入不算是一层,可以说是第0层 第i层的值:W[1]可以用来表示是第1层的参数 激活值:当前层会传递给下一层的值如a[0]表示输入层会传给第一层的值 每一层中有多个神经元, 阅读全文
posted @ 2018-03-28 21:53
huapyuan
阅读(469)
评论(0)
推荐(0)
摘要:
目录 神经网络的符号表示 为什么用深度来表示 神经网络模块构建 参数和超参数 一、神经网络的符号表示 $L = 4$ 层数为4 $n^{[l]}=5$ 第$l$层有5个神经元 $n^{[0]}=n_x=3$ 输入层有3个特征值 $a^{[l]}$第$l$层的激活函数 $X=a^{[0]}$ $a^{ 阅读全文
posted @ 2018-03-28 21:53
huapyuan
阅读(210)
评论(0)
推荐(0)
摘要:
目录 常用标记 logistic回归 梯度下降法 计算图 向量化 一、常用标记 样本:$(x, y)$ $x$为输入,$y$为输出 输入$x$:$x\in\mathbb{R}^{n_{x}}$是一个$n_{x}$维的特征向量 输出$y$:取值为0或1 样本数量:$m$ 样本空间:$\{(x^{(1) 阅读全文
posted @ 2018-03-28 21:52
huapyuan
阅读(398)
评论(0)
推荐(0)
摘要:
开始写一系列的学习笔记,基于吴恩达的《深度学习》课程,大致一周为一篇。第一节这个没什么内容 注:文章中的很多图片也是来自该课程的 课程链接:http://mooc.study.163.com/smartSpec/detail/1001319001.htm 目录 什么是神经网络 ReLu修正线性单元 阅读全文
posted @ 2018-03-28 21:51
huapyuan
阅读(217)
评论(0)
推荐(0)

浙公网安备 33010602011771号