会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Picassooo
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
44
45
46
47
48
49
50
51
52
···
72
下一页
2020年9月27日
转:一个关于显卡利用率的问题
摘要: 一个关于显卡利用率的问题
阅读全文
posted @ 2020-09-27 17:25 Picassooo
阅读(204)
评论(0)
推荐(0)
2020年9月26日
转:解决Python print end 一行输出不显示的问题
摘要: 解决Python print end 一行输出不显示的问题
阅读全文
posted @ 2020-09-26 21:57 Picassooo
阅读(519)
评论(0)
推荐(0)
PyTorch查看模型和数据是否在GPU上
摘要: 模型和数据可以在CPU和GPU上来回迁移,怎么判断模型和数据在哪里呢? import torch import torch.nn as nn # 判断模型是在CPU还是GPU上 model = nn.LSTM(input_size=10, hidden_size=4, num_layers=1, b
阅读全文
posted @ 2020-09-26 21:25 Picassooo
阅读(34511)
评论(0)
推荐(2)
python numpy 生成一个服从多元正态分布的数组
摘要: 标准正态分布的概率密度公式 正态分布概率密度公式 多元正态分布的概率密度公式 上式为 x 服从 k 元正态分布,x 为 k 维向量;|Σ| 代表协方差矩阵的行列式。 二维正态分布概率密度函数为钟形曲面,等高线是椭圆线族,并且二维正态分布的两个边缘分布都是一维正态分布,如图 numpy生成一个服从多元
阅读全文
posted @ 2020-09-26 16:20 Picassooo
阅读(7845)
评论(2)
推荐(1)
2020年9月23日
转:WAE-GAN和WAE-MMD的PyTorch实现
摘要: WAE-GAN和WAE-MMD的PyTorch实现
阅读全文
posted @ 2020-09-23 22:37 Picassooo
阅读(778)
评论(0)
推荐(0)
2020年9月19日
Unpooling反池化, Deconvolution反卷积,转置卷积deconv
摘要: unpooling (摘自https://www.bilibili.com/video/av15889450/?p=33,第30分钟) unpooling有很多种方法,其中一种如下图: Deconvolution (摘自https://www.bilibili.com/video/av1588945
阅读全文
posted @ 2020-09-19 20:45 Picassooo
阅读(726)
评论(0)
推荐(0)
转:机器学习“判别模型”和“生成模型”有什么区别?
摘要: 李宏毅课程 classification 1,视频的19:47处开始有讲为什么叫生成模型,生成模型一般都需要先假设训练数据服从某种概率分布。 李宏毅课程 logistic regression, 视频的42:07处有讲判别模型和生成模型的区别,另外,视频的31:24处也有到,可参考视频前面的内容加以
阅读全文
posted @ 2020-09-19 16:56 Picassooo
阅读(394)
评论(0)
推荐(0)
2020年9月16日
python的执行过程
摘要: 参考一:python的执行过程总结 参考二:说说Python程序的执行过程 Java首先是通过编译器编译成字节码文件,然后在运行时通过解释器给解释成机器文件。所以我们说Java是一种先编译后解释的语言。其实Python和Java一样,也是一门基于虚拟机的语言,当我们在命令行中输入python hel
阅读全文
posted @ 2020-09-16 21:06 Picassooo
阅读(608)
评论(0)
推荐(0)
2020年9月15日
机器学习和深度学习摘抄
摘要: 1. $\ell_{joint} = \ell_{ele} + \lambda_{adv} \ell_{adv}$ 其中 $\ell_{ele}$ 是逐元素的重建损失 , $\ell_{adv}$ 是对抗损失, $\lambda_{adv}$ 用于平衡二者。 我们用修复序列与原始序列之间的$L_2$
阅读全文
posted @ 2020-09-15 10:38 Picassooo
阅读(198)
评论(0)
推荐(0)
2020年9月12日
转:sqrt()可能会使神经网络loss变为NaN
摘要: pytorch loss 出现nan,原因之一,计算图中存在torch.sqrt loss突然变为nan?你可能踩了sqrt()的坑
阅读全文
posted @ 2020-09-12 17:29 Picassooo
阅读(625)
评论(0)
推荐(0)
上一页
1
···
44
45
46
47
48
49
50
51
52
···
72
下一页
公告