摘要: Python的global指令的作用 学过其他常用编程语言的同学一定清楚,Python是一个语法非常宽容的语言。它是个变量的定义可以省略、直接赋值、根据赋值结果自动确定变量类型的弱类型语言。 但是这样的特性在处理全局变量和局部变量时候会出现问题:如果我赋值了一个全局变量,然后我在函数中再赋值一个同名 阅读全文
posted @ 2019-11-29 16:29 别再闹了 阅读(1149) 评论(0) 推荐(0)
摘要: [转载]torch参数:torch.backends.cudnn.benchmark的意义 来源:https://zhuanlan.zhihu.com/p/73711222 完整版请看原文,这里只截取一部分结论性的东西: 设置 将会让程序在开始时花费一点额外时间,为整个网络的每个卷积层搜索最适合它的 阅读全文
posted @ 2019-11-29 16:23 别再闹了 阅读(677) 评论(0) 推荐(0)
摘要: [转载]clip gradient抑制梯度爆炸 来源:https://blog.csdn.net/u010814042/article/details/76154391 1.梯度爆炸的影响 在一个只有一个隐藏节点的网络中,损失函数和权值w偏置b构成error surface,其中有一堵墙,如下所示 阅读全文
posted @ 2019-11-29 16:16 别再闹了 阅读(596) 评论(0) 推荐(0)
摘要: Pytorch中的自编码(autoencoder) 本文资料来源:https://www.bilibili.com/video/av15997678/?p=25 什么是自编码 先压缩原数据、提取出最有代表性的信息。然后处理后再进行解压。减少处理压力 通过对比白色X和黑色X的区别(cost函数),从而 阅读全文
posted @ 2019-11-29 12:04 别再闹了 阅读(3902) 评论(0) 推荐(0)
摘要: [转载]机器学习优化方法总结:SGD,Momentum,AdaGrad,RMSProp,Adam https://blog.csdn.net/u010089444/article/details/76725843 这篇博客格式不好直接粘贴,就不附原文了。 有几个点可以注意下,原文没有写的很清楚: 1 阅读全文
posted @ 2019-11-29 00:59 别再闹了 阅读(510) 评论(0) 推荐(0)