会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
爱和九九
迷茫的迷茫人找迷茫的方向做迷茫的实验水迷茫的研究人生
博客园
首页
新随笔
联系
管理
订阅
上一页
1
···
3
4
5
6
7
8
下一页
2022年2月13日
深度学习笔记023 NiN 网络中的网络
摘要: 在这之前,在好好学一下1x1卷积层的知识: 其实就是改变维度和增加非线性性 https://blog.csdn.net/yaochunchu/article/details/95527760?spm=1001.2101.3001.6650.3&utm_medium=distribute.pc_rel
阅读全文
posted @ 2022-02-13 22:59 爱和九九
阅读(232)
评论(0)
推荐(0)
2022年2月8日
深度学习笔记022 VGG(使用块的网络)
摘要: AlexNet比LeNet更深更大,带来了更好的精度,那么是不是再深一些再大一些,我们就会更好? 更深更大,可以通过更多的全连接层(太贵)、更多的卷积层以及将卷积层组成块来实现。 VGG思想:将小块先组成大块,最后再去组合。 VGG块:用大量的3x3(一般再大效果会不好)的卷积层堆起来加一个池化层做
阅读全文
posted @ 2022-02-08 22:36 爱和九九
阅读(515)
评论(0)
推荐(0)
深度学习笔记021 AlexNet
摘要: AlexNet:深度卷积神经网络,2012年左右提出。 在这之前,2000年左右开始,最火的机器学习算法是核方法(Learn with kernels):用核函数,计算相关性。 机器学习,最核心最基础的一点,就是,能跑得动。 ImageNet的数据集: 可以看到和手写数字识别的数据集相比,样本和类数
阅读全文
posted @ 2022-02-08 18:07 爱和九九
阅读(297)
评论(0)
推荐(0)
2022年2月7日
深度学习笔记020 LeNet
摘要: LeNet卷积神经网络 所谓卷积Net,就是将空间信息不停地压缩,压缩,在压缩,最后将特征变得很小很小,通道数变得越来越多,最后甚至特征会变成1,通道数会变成上千,最后做全连接输出,这便是卷积神经网络的内核。 feature map:输出 LeNet: 输入是一个32x32的图,第一层卷积,大概是用
阅读全文
posted @ 2022-02-07 23:29 爱和九九
阅读(164)
评论(0)
推荐(0)
深度学习笔记019池化层
摘要: 二维最大池化层: 返回窗口中的最大值。 池化层与卷积层类似,都具有填充和步幅; 没有可学习的参数; 在每个输入通道应用池化层以获得相应的输出通道; 输出通道数==输入通道数 ## 这里不用池化层做多通道融合的原因,是因为通道融合常常是卷积的任务。 除了最大池化层,还有一个平均池化层最常用。 池化层常
阅读全文
posted @ 2022-02-07 19:35 爱和九九
阅读(186)
评论(0)
推荐(0)
深度学习笔记018卷积层的多个输入和输出通道
摘要: 对于RGB这种多个输入通道的图: 每个通道都有一个卷积核,结果是所有通道卷积结果的和。 我们可以有多个输出通道: 但是到目前为止我们只用到单输出通道。 多输入和输出通道,可以用多个卷积核提取不同的特定的模式,最后加权,得到一个组合的模式识别。 深度学习其实就是先用简单的卷积核识别这些最简单的纹理,然
阅读全文
posted @ 2022-02-07 00:14 爱和九九
阅读(583)
评论(0)
推荐(0)
2022年2月4日
深度学习笔记017卷积层
摘要: 看到一句话,其实卷积层就是一种滤波器,放大它感兴趣的,缩小它不感兴趣的,很有道理。 二维卷积层的数学表达: 这里这个W其实就是kernel,是在这里通过这种方式学习出来的参数,表现出来的就是一个矩阵。b是偏差,通过广播机制作用给Y。 二维交叉和二维卷积,就差一个翻转的关系: 为了简单,我们把负号删掉
阅读全文
posted @ 2022-02-04 22:49 爱和九九
阅读(369)
评论(0)
推荐(0)
2022年2月2日
深度学习笔记016卷积层基础之前
摘要: 对于图片分类问题,利用MLP会出现模型太大(大到离谱)的问题。比如你分类猫狗的模型的参数比世界上所有的狗和猫都多,这显然是不对的。 在处理图片(找寻某一个目标的任务时)遵循两个原则: 1、平移不变性 2、局部性 “卷积就是一个特殊的全连接层” 在此之前,看王木头的视频:从“卷积”、到“图像卷积操作”
阅读全文
posted @ 2022-02-02 22:54 爱和九九
阅读(62)
评论(0)
推荐(0)
2022年1月26日
深度学习笔记015GPU的安装与使用
摘要: 我的thinkpad没有GPU(哭哭惹); 我家里那台顶配偏科机也没有GPU!!!(放声大哭); 所以只能在google上玩玩了,唉。 倒也还可以,最起码是免费的。 因为我没有GPU,自然也装不了cuda…… 关于上述GPU参数:https://www.cnblogs.com/testzcy/p/1
阅读全文
posted @ 2022-01-26 19:21 爱和九九
阅读(349)
评论(0)
推荐(0)
深度学习笔记014神经网络基础之——模型搭建、参数管理、自定义层、读写文件等内容014_1PytorchModelBuilding&014_2ParameterManagement.py
摘要: 今天写了两版代码,相关问题也都放在注释里了,Q&A部分在这里。 1、将变量转换成伪变量(one-hot encoding)时内存炸了怎么办? 1.用稀疏矩阵。 2.对于一段话,我们独立热编码的时候切词用单个的词语做特征维度。 3.离散化离散类别太多以至于无法处理,只能丢掉了…… 2、模型,可以理解为
阅读全文
posted @ 2022-01-26 16:35 爱和九九
阅读(155)
评论(0)
推荐(0)
上一页
1
···
3
4
5
6
7
8
下一页
公告