摘要: 内容预览: step(closure) 进行单次优化 (参数更新). 参数: closure (callable) –...~ 参数: params (iterable) – 待优化参数的iterable或者是定义了参数组的...~ 参数: params (iterable) – 待优化参数的ite 阅读全文
posted @ 2019-07-04 17:55 交流_QQ_2240410488 阅读(11707) 评论(0) 推荐(2)
摘要: https://discuss.pytorch.org/t/how-does-sgd-weight-decay-work/33105 阅读全文
posted @ 2019-07-04 17:35 交流_QQ_2240410488 阅读(375) 评论(0) 推荐(0)
摘要: torch中的copy()和clone() 1、torch中的copy()和clone() y = torch.Tensor(2,2):copy(x) 1 修改y并不改变原来的x y = x:clone()1 修改y也不改变x y = x1 修改y这个时候就开始改变x了 注意,官网中Returns 阅读全文
posted @ 2019-07-04 16:57 交流_QQ_2240410488 阅读(2782) 评论(0) 推荐(0)
摘要: 本文原文是 An overview of gradient descent optimization algorithms,同时作者也在 arXiv 上发了一篇同样内容的 论文。 本文结合了两者来翻译,但是阅读原文我个人建议读博客中的,感觉体验更好点。 文中括号中或者引用块中的 斜体字 为对应的英文 阅读全文
posted @ 2019-07-04 15:58 交流_QQ_2240410488 阅读(621) 评论(0) 推荐(0)
摘要: http://cs231n.github.io/optimization-1/ 理解 http://cs231n.github.io/neural-networks-3/ 检查 阅读全文
posted @ 2019-07-04 15:08 交流_QQ_2240410488 阅读(153) 评论(0) 推荐(0)
摘要: 可以在pip后使用 == 运算符指定版本号 pip install applicationName==version 阅读全文
posted @ 2019-07-04 10:30 交流_QQ_2240410488 阅读(474) 评论(0) 推荐(0)
摘要: import os os.environ["CUDA_VISIBLE_DEVICES"] = "2" # 或 os.environ["CUDA_VISIBLE_DEVICES"] = "0,2,3" (等号右边的双引号可以省略) 阅读全文
posted @ 2019-07-04 10:23 交流_QQ_2240410488 阅读(2057) 评论(0) 推荐(0)
摘要: 看了好多教程都提到了使用 os.environ["CUDA_VISIBLE_DEVICES"] = "1" 或者export CUDA_VISIBLE_DEVICES=1但是我加进代码里面速度并没有提高,查了很久才找到问题所在,当你的电脑有两块以上GPU时,上面这两句代码才起作用! 因为我的电脑只有 阅读全文
posted @ 2019-07-04 10:20 交流_QQ_2240410488 阅读(3691) 评论(0) 推荐(0)
摘要: 机器学习界有一群炼丹师,他们每天的日常是: 拿来药材(数据),架起八卦炉(模型),点着六味真火(优化算法),就摇着蒲扇等着丹药出炉了。 不过,当过厨子的都知道,同样的食材,同样的菜谱,但火候不一样了,这出来的口味可是千差万别。火小了夹生,火大了易糊,火不匀则半生半糊。 机器学习也是一样,模型优化算法 阅读全文
posted @ 2019-07-04 09:51 交流_QQ_2240410488 阅读(332) 评论(0) 推荐(0)
摘要: https://pytorch-cn.readthedocs.io/zh/latest/package_references/torch-autograd/ 阅读全文
posted @ 2019-07-04 09:49 交流_QQ_2240410488 阅读(141) 评论(0) 推荐(0)
摘要: 前言需求: 必须现在需要动态创建16个list,每个list的名字不一样,但是是有规律可循,比如第一个list的名字叫: arriage_list_0=[],第二个叫arriage_list_1=[]……..依次类推,但是我又不想手动的去写16个这样的名字,太累了,而且增加了代码的冗余性,灵活性也不 阅读全文
posted @ 2019-07-04 09:16 交流_QQ_2240410488 阅读(3773) 评论(0) 推荐(0)
摘要: 目录 1. DataFrame 处理缺失值 dropna() 2. 根据某维度计算重复的行 duplicated()、value_counts() 3. 去重 drop_duplicates() 4. 拼接 (1) 拼接列 merge() (2) 拼接行 5. 找出在某一特定维度为空值的所有行 6. 阅读全文
posted @ 2019-07-04 01:00 交流_QQ_2240410488 阅读(1499) 评论(0) 推荐(0)
摘要: 现代的机器学习系统均利用大量的数据,利用梯度下降算法或者相关的变体进行训练。传统上,最早出现的优化算法是SGD,之后又陆续出现了AdaGrad、RMSprop、ADAM等变体,那么这些算法之间又有哪些区别和联系呢?本文试图对比的介绍目前常用的基于一阶梯度的优化算法,并给出它们的(PyTorch)实现 阅读全文
posted @ 2019-07-04 00:56 交流_QQ_2240410488 阅读(714) 评论(0) 推荐(0)
摘要: 用Python循环创建多个变量, 如创建 a1= 、a2= 、a3= 、a4= 、a5= 或 self.a1= 、self.a2= 、 self.a3= 一. 可以通过python的内置函数locals 来完成 locals是python的内置函数,他可以以字典的方式去访问局部和全局变量。pytho 阅读全文
posted @ 2019-07-04 00:26 交流_QQ_2240410488 阅读(797) 评论(0) 推荐(0)