会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Picassooo
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
38
39
40
41
42
43
44
45
46
···
72
下一页
2021年1月22日
转:pytorch优化器传入多个模型的参数
摘要: pytorch 优化器(optim)不同参数组,不同学习率设置
阅读全文
posted @ 2021-01-22 21:34 Picassooo
阅读(1865)
评论(0)
推荐(0)
2021年1月20日
mac pro WPS Excel单元格内换行
摘要: control + option + 回车键
阅读全文
posted @ 2021-01-20 19:57 Picassooo
阅读(4096)
评论(0)
推荐(0)
2021年1月17日
CMU mocap数据集
摘要: 信息 链接:http://mocap.cs.cmu.edu/ Wentao Zhu等人的2016 AAAI论文: We have categorized the CMU motion capture dataset into 45 classes for the purpose of skeleto
阅读全文
posted @ 2021-01-17 21:10 Picassooo
阅读(3159)
评论(2)
推荐(1)
2021年1月13日
32位、64位的浮点数二进制存储【转】
摘要: 32位浮点型数的二进制存储 IEEE754 32位浮点数表示范围 详解二进制浮点数
阅读全文
posted @ 2021-01-13 10:52 Picassooo
阅读(653)
评论(0)
推荐(0)
2021年1月12日
学习率和loss下降的关系
摘要: 本文摘自:学习率和batchsize如何影响模型的性能? 初始的学习率一般有一个最优值,过大则导致模型不收敛,过小则导致模型收敛特别慢或者无法学习,下图展示了不同大小的学习率下模型收敛情况的可能性,图来自于cs231n。
阅读全文
posted @ 2021-01-12 21:54 Picassooo
阅读(2369)
评论(0)
推荐(0)
2021年1月7日
pytorch, retain_grad查看非叶子张量的梯度
摘要: 在用pytorch搭建和训练神经网络时,有时为了查看非叶子张量的梯度,比如网络权重张量的梯度,会用到retain_grad()函数。但是几次实验下来,发现用或不用retain_grad()函数,最终神经网络的准确率会有一点点差异。用retain_grad()函数的训练结果会差一些。目前还没有去探究这
阅读全文
posted @ 2021-01-07 16:10 Picassooo
阅读(1787)
评论(0)
推荐(0)
深度学习中的batch的大小对学习效果有何影响?【转】
摘要: 深度学习中的batch的大小对学习效果有何影响? 更大的batch size能更好的代表训练样本总体,所指示的梯度方向能更接近所有训练数据的极值方向。
阅读全文
posted @ 2021-01-07 12:26 Picassooo
阅读(133)
评论(0)
推荐(0)
2021年1月6日
Pytorch对比clone、detach以及copy_等张量复制操作【转】
摘要: 【Pytorch】对比clone、detach以及copy_等张量复制操作
阅读全文
posted @ 2021-01-06 23:06 Picassooo
阅读(251)
评论(0)
推荐(0)
2021年1月3日
KL散度理解以及使用pytorch计算KL散度
摘要: KL散度理解以及使用pytorch计算KL散度 计算例子:
阅读全文
posted @ 2021-01-03 14:11 Picassooo
阅读(3517)
评论(0)
推荐(1)
2021年1月1日
KL散度公式推导,以及为什么大于0【转】
摘要: 参考:相对熵(KL散度)
阅读全文
posted @ 2021-01-01 23:11 Picassooo
阅读(1592)
评论(0)
推荐(0)
上一页
1
···
38
39
40
41
42
43
44
45
46
···
72
下一页
公告