会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
聚沙成塔,水滴石穿
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
7
8
···
22
下一页
2020年1月8日
从头学pytorch(十五):AlexNet
摘要: AlexNet AlexNet是2012年提出的一个模型,并且赢得了ImageNet图像识别挑战赛的冠军.首次证明了由计算机自动学习到的特征可以超越手工设计的特征,对计算机视觉的研究有着极其重要的意义. AlexNet的设计思路和LeNet是非常类似的.不同点主要有以下几点: 激活函数由sigmoi
阅读全文
posted @ 2020-01-08 18:29 core!
阅读(1426)
评论(0)
推荐(0)
2020年1月7日
从头学pytorch(十四):lenet
摘要: 卷积神经网络 在之前的文章里,对28 X 28的图像,我们是通过把它展开为长度为784的一维向量,然后送进全连接层,训练出一个分类模型.这样做主要有两个问题 1. 图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式可能难以被模型识别。 2. 对于大尺寸的输入图像,使用全连接层容易造成模型
阅读全文
posted @ 2020-01-07 15:33 core!
阅读(893)
评论(0)
推荐(0)
2020年1月3日
从头学pytorch(十三):使用GPU做计算
摘要: GPU计算 默认情况下,pytorch将数据保存在内存,而不是显存. 查看显卡信息 我的机器输出如下: 单卡,gtx 1050,4g显存. 查看gpu是否可用 查看gpu数量 查看当前gpu号 查看设备名 把tensor复制到显存 使用 可以将CPU上的 转换(复制)到GPU上。如果有多块GPU,我
阅读全文
posted @ 2020-01-03 17:10 core!
阅读(27089)
评论(0)
推荐(8)
从头学pytorch(十二):模型保存和加载
摘要: 模型读取和存储 总结下来,就是几个函数 1. torch.load()/torch.save() 通过python的pickle完成序列化与反序列化.完成内存磁盘转换. 2. Module.state_dict()/Module.load_state_dict() state_dict()获取模型参
阅读全文
posted @ 2020-01-03 16:01 core!
阅读(7292)
评论(0)
推荐(1)
从头学pytorch(十一):自定义层
摘要: 自定义layer 一文里说了怎么写自定义的模型.本篇说怎么自定义层. 分两种: 不含模型参数的layer 含模型参数的layer 核心都一样,自定义一个继承自 ,在类的forward函数里实现该layer的计算,不同的是,带参数的layer需要用到 不含模型参数的layer 直接继承nn.Modul
阅读全文
posted @ 2020-01-03 14:43 core!
阅读(3769)
评论(0)
推荐(2)
2020年1月2日
从头学pytorch(十):模型参数访问/初始化/共享
摘要: 模型参数的访问初始化和共享 参数访问 参数访问:通过下述两个方法.这两个方法是在nn.Module类中实现的.继承自该类的子类也有相同方法. .parameters() .named_parameters() 输出 可见返回的名字自动加上了层数的索引作为前缀。 我们再来访问 中单层的参数。对于使用
阅读全文
posted @ 2020-01-02 17:56 core!
阅读(4564)
评论(0)
推荐(1)
从头学pytorch(九):模型构造
摘要: 模型构造 nn.Module nn.Module是pytorch中提供的一个类,是所有神经网络模块的基类.我们自定义的模块要继承这个基类. 输出如下: Module的子类 torch中还提供了一些其他的类,方便我们构造模型. 这些类也都是继承自nn.Module. Sequential Module
阅读全文
posted @ 2020-01-02 14:27 core!
阅读(1794)
评论(0)
推荐(2)
2020年1月1日
2019年年终总结
摘要: 2019总结 2019年对我而言,是极为重要的一年. 这一年,我离开了工作四年的地方,离开了已经做了四年的运营商j计费业务,离开了温水煮青蛙的状态. 离开了两年前就该离开,却因为事少离家近朝九晚五不加班而不舍得踏出舒适区的状态. 阴差阳错地,进入了一家自动驾驶创业公司,成了一名深度学习工程师,开始接
阅读全文
posted @ 2020-01-01 00:35 core!
阅读(310)
评论(0)
推荐(0)
2019年12月31日
从头学pytorch(八):数值稳定性和模型参数初始化
摘要: 深度学习中的梯度消失和爆炸 详细分析参考: 简单的一句话总结就是: 这二者本质上是同一个问题,在反向传播时,需要求梯度.根据链式求导法则,所以相当于各层的偏导数连乘,由于激活函数的存在,有些激活函数的偏导数一直小于1或者大于1,那么偏导数连乘以后,就会造成梯度过小或过大.从而使得参数变化很小或者参数
阅读全文
posted @ 2019-12-31 17:30 core!
阅读(976)
评论(0)
推荐(0)
从头学pytorch(七):dropout防止过拟合
摘要: "上一篇" 讲了防止过拟合的一种方式,权重衰减,也即在loss上加上一部分$\frac{\lambda}{2n} \|\boldsymbol{w}\|^2$,从而使得w不至于过大,即不过分偏向某个特征. 这一篇介绍另一种防止过拟合的方法,dropout,即丢弃某些神经元的输出.由于每次训练的过程里,
阅读全文
posted @ 2019-12-31 15:38 core!
阅读(10137)
评论(0)
推荐(2)
上一页
1
2
3
4
5
6
7
8
···
22
下一页
公告