文章分类 -  深度学习

摘要:1 三者的关系 kl散度=交叉熵-熵 熵 可以表示一个事件A的自信息量,也就是事件A包含多少信息 kl散度 可以用来表示从事件A的角度来看,事件B有多大的不同,适用于衡量ab之间的差异 交叉熵 可以从来表示从事件A的角度来看,如果描述事件B,适用于衡量不同事件B之间的差异。 对于不同的事件B,计算A 阅读全文
posted @ 2021-10-07 22:59 大大的海棠湾
摘要:输入数据的形状对比 Conv1D (batch,steps,channels) Conv2D(batch,rows,cols,channels) 卷积核的对比 Conv1D kernel_size=2 虽然是2个单词的宽度,但在运算是使用(2,8)的卷积核的 Conv2D kernel_size=( 阅读全文
posted @ 2020-10-22 01:03 大大的海棠湾
摘要:# 前面的代码省略了...def main(argv=None): mnist = input_data.read_data_sets("F:\mydata\TensorFlowData\MNIST_data", one_hot=True) train(mnist) if __name__ == ' 阅读全文
posted @ 2020-09-08 20:55 大大的海棠湾
摘要:原文 https://blog.csdn.net/mzpmzk/article/details/80085929?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-ta 阅读全文
posted @ 2020-02-27 18:32 大大的海棠湾
摘要:原文 https://blog.csdn.net/qq_34886403/article/details/83280726 损失函数可以两大类:分类和回归。 回归损失: 1 L1loss L1损失 L1损失,也称为平均绝对误差MAE,简单地说就是计算输出值与真实值之间的绝对值大小。这种度量方法在不考 阅读全文
posted @ 2020-02-24 21:31 大大的海棠湾
摘要:原文 https://blog.csdn.net/lz_peter/article/details/84574716 softmax函数又称为归一化指数函数,它是二分类函数sigmod在多分类上的推广,目的是将多分类的结果以概率的形式展现出来,下图展现了softmax的计算方法: 我们知道概率有两个 阅读全文
posted @ 2020-02-24 17:09 大大的海棠湾
摘要:原文 https://www.zhihu.com/question/49812013 梯度消失指的是 权重不断更新,直观上看是从最后一层到第一层权重的更新越来越慢,直至不更新 其本质原因是反向传播的连乘效应,导致最后对权重的偏导接近于零。 另外一个网友的解释:sigmod函数的导数 x*(1-x) 阅读全文
posted @ 2020-02-24 11:00 大大的海棠湾
摘要:原文 https://blog.csdn.net/lff1208/article/details/77717149 阅读全文
posted @ 2020-02-24 10:52 大大的海棠湾
摘要:原文 https://my.oschina.net/u/876354/blog/1637819 阅读全文
posted @ 2020-02-23 11:26 大大的海棠湾
摘要:dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时地从网络中丢弃。 原文 https://blog.csdn.net/fu6543210/article/details/84450890 Dropout说的简单一点就是我们让在前向传导的时候,让某个神经元的激活值以 阅读全文
posted @ 2020-02-22 21:40 大大的海棠湾
摘要:1 公式 假设 输入图片(input)大小为I*I,卷积核(Filter)大小为 K*K,步长(stride)为S,填充(Padding)的像素数为P,那卷积层输出(output)的特征图大小为多少呢? 公式为:O=(I-K+2P)/S+1 2)例子: 我们采用的卷积核大小为K=3*3,填充大小为P 阅读全文
posted @ 2020-02-22 19:10 大大的海棠湾
摘要:原文 https://blog.csdn.net/weixin_41417982/article/details/81412076 卷积层用来提取特征,而池化层可以减小参数数量。 卷积层 工作原理:我们是使用卷积核来提取特征的,卷积核可以说是一个矩阵,假如我们设置一个卷积核为3*3的矩阵,而我们图片 阅读全文
posted @ 2020-02-22 18:57 大大的海棠湾
摘要:池化pooling 是卷积神经网络中另一个重要的概念,他实际上是一种形式的降采样,有多种不同形式的非线性池化函数,而其中最大池化max pooling是最为常见的。它是将输入的图像划分为若干个矩形区域,对每个子区域输出最大值。 直觉上这种机制能够有效地原因在于,发现一个特征之后,他的精确位置远不及他 阅读全文
posted @ 2020-02-22 12:24 大大的海棠湾
摘要:https://www.cnblogs.com/eilearn/p/9031846.html 阅读全文
posted @ 2020-02-22 11:45 大大的海棠湾
摘要:https://www.cnblogs.com/guoyaohua/p/9476235.html 阅读全文
posted @ 2020-02-22 11:44 大大的海棠湾
摘要:原文 https://blog.csdn.net/Uwr44UOuQcNsUQb60zk2/article/details/81074408 阅读全文
posted @ 2020-02-22 11:43 大大的海棠湾