摘要:
内容预览: step(closure) 进行单次优化 (参数更新). 参数: closure (callable) –...~ 参数: params (iterable) – 待优化参数的iterable或者是定义了参数组的...~ 参数: params (iterable) – 待优化参数的ite 阅读全文
posted @ 2019-07-04 17:55
交流_QQ_2240410488
阅读(11707)
评论(0)
推荐(2)
摘要:
https://discuss.pytorch.org/t/how-does-sgd-weight-decay-work/33105 阅读全文
posted @ 2019-07-04 17:35
交流_QQ_2240410488
阅读(375)
评论(0)
推荐(0)
摘要:
torch中的copy()和clone() 1、torch中的copy()和clone() y = torch.Tensor(2,2):copy(x) 1 修改y并不改变原来的x y = x:clone()1 修改y也不改变x y = x1 修改y这个时候就开始改变x了 注意,官网中Returns 阅读全文
posted @ 2019-07-04 16:57
交流_QQ_2240410488
阅读(2782)
评论(0)
推荐(0)
摘要:
本文原文是 An overview of gradient descent optimization algorithms,同时作者也在 arXiv 上发了一篇同样内容的 论文。 本文结合了两者来翻译,但是阅读原文我个人建议读博客中的,感觉体验更好点。 文中括号中或者引用块中的 斜体字 为对应的英文 阅读全文
posted @ 2019-07-04 15:58
交流_QQ_2240410488
阅读(621)
评论(0)
推荐(0)
摘要:
http://cs231n.github.io/optimization-1/ 理解 http://cs231n.github.io/neural-networks-3/ 检查 阅读全文
posted @ 2019-07-04 15:08
交流_QQ_2240410488
阅读(153)
评论(0)
推荐(0)
摘要:
可以在pip后使用 == 运算符指定版本号 pip install applicationName==version 阅读全文
posted @ 2019-07-04 10:30
交流_QQ_2240410488
阅读(474)
评论(0)
推荐(0)
摘要:
import os os.environ["CUDA_VISIBLE_DEVICES"] = "2" # 或 os.environ["CUDA_VISIBLE_DEVICES"] = "0,2,3" (等号右边的双引号可以省略) 阅读全文
posted @ 2019-07-04 10:23
交流_QQ_2240410488
阅读(2057)
评论(0)
推荐(0)
摘要:
看了好多教程都提到了使用 os.environ["CUDA_VISIBLE_DEVICES"] = "1" 或者export CUDA_VISIBLE_DEVICES=1但是我加进代码里面速度并没有提高,查了很久才找到问题所在,当你的电脑有两块以上GPU时,上面这两句代码才起作用! 因为我的电脑只有 阅读全文
posted @ 2019-07-04 10:20
交流_QQ_2240410488
阅读(3691)
评论(0)
推荐(0)
摘要:
机器学习界有一群炼丹师,他们每天的日常是: 拿来药材(数据),架起八卦炉(模型),点着六味真火(优化算法),就摇着蒲扇等着丹药出炉了。 不过,当过厨子的都知道,同样的食材,同样的菜谱,但火候不一样了,这出来的口味可是千差万别。火小了夹生,火大了易糊,火不匀则半生半糊。 机器学习也是一样,模型优化算法 阅读全文
posted @ 2019-07-04 09:51
交流_QQ_2240410488
阅读(332)
评论(0)
推荐(0)
摘要:
https://pytorch-cn.readthedocs.io/zh/latest/package_references/torch-autograd/ 阅读全文
posted @ 2019-07-04 09:49
交流_QQ_2240410488
阅读(141)
评论(0)
推荐(0)
摘要:
前言需求: 必须现在需要动态创建16个list,每个list的名字不一样,但是是有规律可循,比如第一个list的名字叫: arriage_list_0=[],第二个叫arriage_list_1=[]……..依次类推,但是我又不想手动的去写16个这样的名字,太累了,而且增加了代码的冗余性,灵活性也不 阅读全文
posted @ 2019-07-04 09:16
交流_QQ_2240410488
阅读(3773)
评论(0)
推荐(0)
摘要:
目录 1. DataFrame 处理缺失值 dropna() 2. 根据某维度计算重复的行 duplicated()、value_counts() 3. 去重 drop_duplicates() 4. 拼接 (1) 拼接列 merge() (2) 拼接行 5. 找出在某一特定维度为空值的所有行 6. 阅读全文
posted @ 2019-07-04 01:00
交流_QQ_2240410488
阅读(1499)
评论(0)
推荐(0)
摘要:
现代的机器学习系统均利用大量的数据,利用梯度下降算法或者相关的变体进行训练。传统上,最早出现的优化算法是SGD,之后又陆续出现了AdaGrad、RMSprop、ADAM等变体,那么这些算法之间又有哪些区别和联系呢?本文试图对比的介绍目前常用的基于一阶梯度的优化算法,并给出它们的(PyTorch)实现 阅读全文
posted @ 2019-07-04 00:56
交流_QQ_2240410488
阅读(714)
评论(0)
推荐(0)
摘要:
用Python循环创建多个变量, 如创建 a1= 、a2= 、a3= 、a4= 、a5= 或 self.a1= 、self.a2= 、 self.a3= 一. 可以通过python的内置函数locals 来完成 locals是python的内置函数,他可以以字典的方式去访问局部和全局变量。pytho 阅读全文
posted @ 2019-07-04 00:26
交流_QQ_2240410488
阅读(797)
评论(0)
推荐(0)

浙公网安备 33010602011771号