随笔分类 -  深度学习

摘要:文章导读: 1. 卷积神经网络 2. 卷积神经网络实践 深度神经网络在可以模拟更加复杂的情形,但是在上一章中,我们发现训练深度神经网络的时候会出现梯度消失的问题,从而导致模型训练失败。这一章,将会介绍可以被用在深度学习上的一些技术。 这章的主要内容是介绍一种应用最广泛的深度神经网络:卷积神经网络。我 阅读全文
posted @ 2017-09-18 16:00 野路子程序员 阅读(3134) 评论(0) 推荐(3) 编辑
摘要:文章导读: 1. 梯度消失问题 2. 是什么导致了梯度消失问题? 3. 复杂神经网络中的梯度不稳定问题 之前的章节,我们利用一个仅包含一层隐藏层的简单神经网络就在MNIST识别问题上获得了98%左右的准确率。我们于是本能会想到用更多的隐藏层,构建更复杂的神经网络将会为我们带来更好的结果。 就如同在进 阅读全文
posted @ 2017-09-14 12:22 野路子程序员 阅读(4600) 评论(1) 推荐(1) 编辑
摘要:文章导读: 1. 两个前提 2. 单输入单输出的情况 3. 一般情形:多输入多输出情况 4. 使用sigmoid以外的神经元 5. 修正阶跃函数 6.总结 神经网络最令人激动的一个性质,就是它可以实现任意功能的函数。而且是即使对于只有一个隐藏层的神经网络,这个结论依然成立。 大部分神经网络的使用者都 阅读全文
posted @ 2017-09-11 20:22 野路子程序员 阅读(16057) 评论(2) 推荐(4) 编辑
摘要:文章导读: 1.交叉熵损失函数 1.1 交叉熵损失函数介绍 1.2 在MNIST数字分类上使用交叉熵损失函数 1.3 交叉熵的意义以及来历 1.4 Softmax 2. 过拟合和正则化 2.1 过拟合 2.2 正则化 2.3 为什么正则化可以减轻过拟合问题 2.4 正则化的其它方法 3. 参数初始化 阅读全文
posted @ 2017-09-07 17:25 野路子程序员 阅读(2396) 评论(4) 推荐(2) 编辑
摘要:文章导读: 1. 一种基于矩阵运算快速计算神经网络输出的方法 2. 关于损失函数的两个假设 3. Hadamard积 - $s\odot t$ 4. 反向传播算法背后的四个基本方程 5. 四个方程的证明(选学) 6. 反向传播算法 7. 反向传播算法的代码实现 8. 反向传播为什么被认为是快速的算法 阅读全文
posted @ 2017-08-25 15:18 野路子程序员 阅读(9595) 评论(4) 推荐(1) 编辑
摘要:文章导读: 1. 本书内容 2. 手写字体识别 3. 感知机 4. Sigmoid神经元 5. 神经网络的结构 6. 一个用于手写数字识别的简单神经网络 7. 梯度下降学习算法 8. 数字识别神经网络的实现 9. 关于深度学习 深度学习算是现在机器学习领域非常热门的方向了,虽然一直有了解并且简单用过 阅读全文
posted @ 2017-08-22 19:33 野路子程序员 阅读(4326) 评论(8) 推荐(8) 编辑