激活函数,梯度消失
摘要:激活函数: 激活函数(Activation functions)对于人工神经网络模型去学习、理解非常复杂和非线性的函数来说具有十分重要的作用。它们将非线性特性引入到我们的网络中。在神经元中,输入的 inputs 通过加权,求和后,还被作用了一个函数,这个函数就是激活函数。引入激活函数是为了增加神经网
阅读全文
posted @
2019-06-11 20:35
Manuel
阅读(1231)
推荐(0)
卷积
摘要:三层的神经网络: 全链接层: 卷积层与全连接层的主要差别:卷积层可以保全空间结构 图像卷积: 输出尺寸与输入尺寸、步长Stride间的关系: 为了得到想要的输出尺寸,常用0作边界填充或扩充原有数据或复制原有数据: 例: 输出尺寸计算: 卷积层参数个数计算: 总结: 1
阅读全文
posted @
2019-06-10 17:20
Manuel
阅读(147)
推荐(0)
梯度下降、反向传播原理,计算图
摘要:梯度下降原理及其过程:https://blog.csdn.net/qq_41800366/article/details/86583789 有限差分估计梯度: 写起来简单,但速度慢而且结果区分度不大 解析梯度: 计算图: 反向传播工作机制: 从输出开始乘以每个节点的本地梯度,一直传递到输入 梯度从后
阅读全文
posted @
2019-06-09 18:29
Manuel
阅读(2151)
推荐(1)
损失函数、正则化、优化
摘要:转:https://blog.csdn.net/oldmao_2001/article/details/90699046?from=groupmessage&isappinstalled=0 在线Latex公式 损失函数 计算网络预测值与真实值不一致程度的函数,以此评价当前模型的好坏。 交叉熵损失函
阅读全文
posted @
2019-05-31 14:39
Manuel
阅读(422)
推荐(0)
最近邻分类器,K近邻分类器,线性分类器
摘要:转自:https://blog.csdn.net/oldmao_2001/article/details/90665515 最近邻分类器: 通俗来讲,计算测试样本与所有样本的距离,将测试样本归为距离最近的样本类。 K近邻分类器: 计算测试样本与K个最近样本的距离,将测试样本归为K个样本中相同类别个数
阅读全文
posted @
2019-05-29 15:55
Manuel
阅读(916)
推荐(0)