摘要: 这是第二篇笔记,上一篇笔记主要写了神经网络向前传播的过程,这篇笔记将主要记录代价函数以及梯度下降 代价函数 对于逻辑回归来说,损失函数为$J(\theta)$ \[ J(\theta) = -\frac{1}{m} \left[ \sum_{i=1}^m y^{(i)}\log h_\theta(x 阅读全文
posted @ 2020-10-25 16:48 zzhASDa 阅读(101) 评论(0) 推荐(0)
摘要: 这是第一篇神经网络的笔记,希望能够坚持写下去。这个笔记的内容主要是吴恩达机器学习视频中的内容,为了方便本人的理解,才有了这篇笔记。 两层 这是一个两层神经网络模型,只含有输入层和输出层,没有隐含层。 我们来看最简单的,似逻辑回归里的情况,$x_1, x_2, x_3$全为实数,并且我们添加一个恒为1 阅读全文
posted @ 2020-10-23 17:54 zzhASDa 阅读(87) 评论(1) 推荐(2)