摘要:
[转载]clip gradient抑制梯度爆炸 来源:https://blog.csdn.net/u010814042/article/details/76154391 1.梯度爆炸的影响 在一个只有一个隐藏节点的网络中,损失函数和权值w偏置b构成error surface,其中有一堵墙,如下所示 阅读全文
posted @ 2019-11-29 16:16
别再闹了
阅读(595)
评论(0)
推荐(0)
摘要:
Pytorch中的自编码(autoencoder) 本文资料来源:https://www.bilibili.com/video/av15997678/?p=25 什么是自编码 先压缩原数据、提取出最有代表性的信息。然后处理后再进行解压。减少处理压力 通过对比白色X和黑色X的区别(cost函数),从而 阅读全文
posted @ 2019-11-29 12:04
别再闹了
阅读(3898)
评论(0)
推荐(0)
摘要:
[转载]机器学习优化方法总结:SGD,Momentum,AdaGrad,RMSProp,Adam https://blog.csdn.net/u010089444/article/details/76725843 这篇博客格式不好直接粘贴,就不附原文了。 有几个点可以注意下,原文没有写的很清楚: 1 阅读全文
posted @ 2019-11-29 00:59
别再闹了
阅读(508)
评论(0)
推荐(0)