会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
慢行厚积
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
23
24
25
26
27
28
29
30
31
···
64
下一页
2019年4月3日
pytorch torchvision.ImageFolder的使用
摘要: 参考:https://pytorch-cn.readthedocs.io/zh/latest/torchvision/torchvision-datasets/ torchvision.datasets Datasets 拥有以下API: __getitem__ __len__ Datasets都是
阅读全文
posted @ 2019-04-03 15:49 慢行厚积
阅读(51287)
评论(0)
推荐(7)
2019年4月2日
nn.ReLU(inplace=True)中inplace的作用
摘要: 在文档中解释是: 意思是是否将得到的值计算得到的值覆盖之前的值,比如: 即对原值进行操作,然后将得到的值又直接复制到该值中 而不是覆盖运算的例子如: 这样就需要花费内存去多存储一个变量y 所以 的意思就是对从上层网络Conv2d中传递下来的tensor直接进行修改,这样能够节省运算内存,不用多存储其
阅读全文
posted @ 2019-04-02 14:58 慢行厚积
阅读(47613)
评论(0)
推荐(6)
pytorch visdom可视化工具学习—1—安装和使用
摘要: 1.安装 安装命令: 2.启动 1) 启动命令: 如果想将其启动在后台: 后面发现下面的错误可能是安装的版本过低导致的,后面改成了0.1.8.8版本的就没有出现问题了 使用浏览器调用http://localhost:8097连接时页面为蓝色空白页,错误为: 可见是缺少了两个文件: plotly.mi
阅读全文
posted @ 2019-04-02 11:07 慢行厚积
阅读(4993)
评论(0)
推荐(0)
2019年4月1日
吴恩达课后作业学习1-week2-homework-logistic
摘要: 参考:https://blog.csdn.net/u013733326/article/details/79639509 希望大家直接到上面的网址去查看代码,下面是本人的笔记 搭建一个能够 “识别猫”的简单神经网络——实现logistic回归,即单层神经网络 1.首先下载数据 总代码lr_utils
阅读全文
posted @ 2019-04-01 16:57 慢行厚积
阅读(580)
评论(0)
推荐(0)
吴恩达课后作业学习1-week3-homework-one-hidden-layer
摘要: 参考:https://blog.csdn.net/u013733326/article/details/79702148 希望大家直接到上面的网址去查看代码,下面是本人的笔记 建立一个带有隐藏层的神经网络 导入一些软件包numpy:是用Python进行科学计算的基本软件包。sklearn:为数据挖掘
阅读全文
posted @ 2019-04-01 16:56 慢行厚积
阅读(1788)
评论(0)
推荐(0)
吴恩达课后作业学习1-week4-homework-two-hidden-layer -1
摘要: 参考:https://blog.csdn.net/u013733326/article/details/79767169 希望大家直接到上面的网址去查看代码,下面是本人的笔记 两层神经网络,和吴恩达课后作业学习1-week3-homework-one-hidden-layer——不发布不同之处在于使
阅读全文
posted @ 2019-04-01 16:55 慢行厚积
阅读(538)
评论(0)
推荐(0)
吴恩达课后作业学习1-week4-homework-multi-hidden-layer -2
摘要: 参考:https://blog.csdn.net/u013733326/article/details/79767169 希望大家直接到上面的网址去查看代码,下面是本人的笔记 实现多层神经网络 1.准备软件包 为了和作者的数据匹配,需要指定随机种子 2.初始化参数 测试两层时: 返回: 测试三层时:
阅读全文
posted @ 2019-04-01 16:55 慢行厚积
阅读(494)
评论(1)
推荐(0)
吴恩达课后作业学习2-week1-3梯度校验
摘要: 参考:https://blog.csdn.net/u013733326/article/details/79847918 希望大家直接到上面的网址去查看代码,下面是本人的笔记 5.梯度校验 在我们执行反向传播的计算过程中,反向传播函数的计算过程是比较复杂的。为了验证我们得到的反向传播函数是否正确,现
阅读全文
posted @ 2019-04-01 16:54 慢行厚积
阅读(870)
评论(0)
推荐(0)
吴恩达课后作业学习2-week1-1 初始化
摘要: 参考:https://blog.csdn.net/u013733326/article/details/79847918 希望大家直接到上面的网址去查看代码,下面是本人的笔记 初始化、正则化、梯度校验 1. 初始化参数: 1.1:使用0来初始化参数。 1.2:使用随机数来初始化参数。 1.3:使用抑
阅读全文
posted @ 2019-04-01 16:54 慢行厚积
阅读(891)
评论(0)
推荐(0)
吴恩达课后作业学习2-week1-2正则化
摘要: 参考:https://blog.csdn.net/u013733326/article/details/79847918 希望大家直接到上面的网址去查看代码,下面是本人的笔记 4.正则化 1)加载数据 仍是问题: 解决——直接导入函数: 加载数据: 图示: 每一个点代表球落下的可能的位置,蓝色代表我
阅读全文
posted @ 2019-04-01 16:54 慢行厚积
阅读(2195)
评论(1)
推荐(0)
上一页
1
···
23
24
25
26
27
28
29
30
31
···
64
下一页
公告