上一页 1 ··· 9 10 11 12 13 14 15 16 17 ··· 80 下一页
摘要: 这篇文章的内容到这里就差不多了,这次以基础的内容为主,简单的梳理一下,首先我们上次知道了构建神经网络的两个步骤:搭建子模块和拼接子模块。而这次就是学习各个子模块的使用。从比较重要的卷积层开始,学习了1d 2d 3d 卷积到底在干什么事情,采用了动图的方式进行演示,卷积运算其实就是通过不同的卷积核去提取不同的特征。然后学习了 Pytorch 的二维卷积运算及转置卷积运算,并进行了对比和分析了代码上如何实现卷积操作。 第二块是池化运算和池化层的学习,关于池化,一般和卷积一块使用,目的是收集和合并卷积提取的特征,去除一些冗余,分为最大池化和平均池化。然后学习了全连接层,这个比较简单,不用多说,最后是非线性激活函数,比较常用的 sigmoid,tanh, relu等。 今天的内容就到这里,模型模块基本上到这里也差不多了,根据我们的那个步骤:数据模块 -> 模型模块 -> 损失函数 -> 优化器 -> 迭代训练。所以下一次开始学习损失函数模块,但是在学习损失函数之前,还得先看一下常用的权重初始化方法,这个对于模型来说也是非常重要的。所以下一次整理权值初始化和损失函数。 阅读全文
posted @ 2021-04-23 11:31 B站-水论文的程序猿 阅读(1475) 评论(0) 推荐(2)
摘要: 上面笼统的介绍了如何利用 nn 这个工具箱去搭建一个神经网络,但是只给出了一个流程,很多细节我们还没有详细解释,但这已经足够了。 下一篇文章我们就将详细介绍 nn 工具箱的各种细节方面的东西,等你看完下一篇文章如果再跳回来看这篇文章,相信定会有醍醐灌顶之效。 阅读全文
posted @ 2021-04-22 10:29 B站-水论文的程序猿 阅读(2491) 评论(0) 推荐(1)
摘要: 本篇文章介绍了 torch 的一个核心——autograd,其中 autograd 中的 variable 和 Tensor 都属于 torch 中的基础数据结构,variable 封装了 Tensor ,拥有着和 Tensor 几乎一样的接口,并且提供了自动求导技术。autograd 是 torch 的自动微分引擎,采用动态计算图的技术,可以更高效的计算导数。 这篇文章说实话是有点偏难的,可以多看几遍,尤其是对于还没有写过实际项目的小白,不过相信有前面几个小项目练手,以及最后一个线性回归的小 demo,相信你差也不差的能看懂,但这都不要紧,在未来的项目实战中,你将会对 autograd 的体会越来越深刻。 阅读全文
posted @ 2021-04-21 17:26 B站-水论文的程序猿 阅读(1949) 评论(0) 推荐(0)
摘要: - `Tensors`并`Variables`已合并 - `Tensors`支持0维(标量) - 弃用`volatile`标签 - `dtypes`,`devices`和`NumPy`风格的创作功能 - 编写`device-agnostic`代码 - `nn.Module`中子模块名称,参数和缓冲区中的新边界约束 阅读全文
posted @ 2021-04-21 15:42 B站-水论文的程序猿 阅读(1808) 评论(0) 推荐(0)
摘要: 这一篇章幅度较大,对于熟悉numpy的同学可能得心应手很多,如果对numpy不是特别熟悉的同学,建议先按照上述所给的教程学一遍numpy,再过来学习tensor这个数据类型,从一二维过渡到高维,也将更容易上手。 这篇文章内容虽多,但从实用的角度来说,相对而言也比较全面,其中内容不需要全部熟稔于心,但至少得对每个方法都大概有个印象,知道有这个东西,这个东西能干啥! 阅读全文
posted @ 2021-04-20 15:10 B站-水论文的程序猿 阅读(3872) 评论(0) 推荐(3)
摘要: 这篇文章通过手写数字问题的引入,算是对深度网络模型做了一个简单的介绍。 接下来也将通过torch解决手写数字问题,两者映照,将会让你更加了解torch实现一个深度模型解决实际问题的流程。 阅读全文
posted @ 2021-04-18 15:18 B站-水论文的程序猿 阅读(2043) 评论(3) 推荐(0)
摘要: Pytorch从入门到放弃 一、前置基础(选看) 0101-Python从入门到放弃(目录) 0102-人工智能(目录) 0103-numpy模块 0104-DeepLearning-图像识别(cnn 流程架构) 二、Pytorch 引入 本章更多的是对 torch 的发展史的简单阐述。 0201- 阅读全文
posted @ 2021-04-15 15:03 B站-水论文的程序猿 阅读(32396) 评论(0) 推荐(5)
摘要: 本篇文章从torch的角度去解决了线性回归问题,细节你可能不懂,但也可以发现它是非常简单的,全程没有让你去实现优化器、去实现全连接层、去实现反向传播,在这里你就不需要去实现一个数学公式。你需要做的仅仅是成为一个优秀的调包侠,并且努力成为一个伟大的调参师即可。 至于为什么直接上代码,而不是先讲解torch的基础,一定是有深意的。站得高看得远,先带你领略下torch的用途及其强大,然后我们再慢慢的一步一步筑基。 阅读全文
posted @ 2021-04-15 10:20 B站-水论文的程序猿 阅读(3322) 评论(0) 推荐(0)
摘要: 本篇文章讲解了机器学习中较为简单的线性回归算法,虽然很多细节没有涉及到,例如噪声的处理和正则化问题、方差和偏差问题、多元特征回归…… 但是本篇文章的核心目的还是想让大家能够利用numpy实现线性回归模型,从最后的代码中可以看出,利用numpy我们就是在把前面的各种数学语言一个一个实现,求误差、求偏导、求梯度,这还只是最简单的回归问题,如果更复杂呢?我们也这样,怕是能让你秃头。 也因此,我们不得不引出我们接下来要讲的框架,他有什么好处,他的好处就是把我们上面的是三个函数封装好了,你需要做的仅仅只是调个函数,传个参数即可。 阅读全文
posted @ 2021-04-14 14:58 B站-水论文的程序猿 阅读(3989) 评论(0) 推荐(0)
摘要: 本篇文章正式介绍了torch和tf的区别,废话那么多,相信你已经很明白两者的区别了,不过是五十步笑百步,先学哪个按照你的需求来就行,但是无论你第一个选择了哪个,另外一个都要作为你的备胎,两个都要学,只不过一个主,一个次。 如果两者对你来说都可以先学,那么,我也教了你一个简单的方法,抛硬币! 阅读全文
posted @ 2021-04-13 21:13 B站-水论文的程序猿 阅读(5289) 评论(1) 推荐(2)
上一页 1 ··· 9 10 11 12 13 14 15 16 17 ··· 80 下一页