摘要: Pytorch学习之源码理解:pytorch/examples/mnists 阅读全文
posted @ 2019-11-27 23:39 别再闹了 阅读(1007) 评论(0) 推荐(0)
摘要: [转载] ReLU和BN层简析 来源:https://blog.csdn.net/huang_nansen/article/details/86619108 卷积神经网络中,若不采用非线性激活,会导致神经网络只能拟合线性可分的数据,因此通常会在卷积操作后,添加非线性激活单元,其中包括logistic 阅读全文
posted @ 2019-11-27 23:35 别再闹了 阅读(4439) 评论(0) 推荐(0)
摘要: Python的argparse模块的使用 最近看到一份Pytorch代码有以下内容: 上网查了一下,这个argparse是是Python标准库中推荐使用的编写命令行程序的工具,是一个用来解析命令行程序的参数的模块。其实就是我们编写在linux中常见的命令行程序中带的参数的处理程序。这些参数理论上可以 阅读全文
posted @ 2019-11-27 21:30 别再闹了 阅读(1743) 评论(0) 推荐(0)
摘要: [转载]Pytorch中nn.Linear module的理解 本文转载并援引全文纯粹是为了构建和分类自己的知识,方便自己未来的查找,没啥其他意思。 这个模块要实现的公式是:y = x A T + b 来源:https://blog.csdn.net/u012936765/article/detai 阅读全文
posted @ 2019-11-27 20:49 别再闹了 阅读(8164) 评论(0) 推荐(0)
摘要: Pytorch中nn.Dropout2d的作用 首先,关于Dropout方法, "这篇博文" 有详细的介绍。简单来说, 我们在前向传播的时候,让某个神经元的激活值以一定的概率p停止工作,这样可以使模型泛化性更强,因为它不会太依赖某些局部的特征 dropout方法有很多类型,图像处理中最常用的是Dro 阅读全文
posted @ 2019-11-27 18:22 别再闹了 阅读(13527) 评论(0) 推荐(2)
摘要: Pytorch中randn和rand函数的用法 randn torch.randn(\ sizes, out=None) → Tensor 返回一个包含了从 标准正态分布 中抽取的一组随机数的张量 size:张量的形状, out:结果张量。(目前还没有看到使用这个参数的例子) rand也差不多其实: 阅读全文
posted @ 2019-11-27 18:19 别再闹了 阅读(12210) 评论(0) 推荐(0)
摘要: Pytorch中nn.Conv2d的用法 nn.Conv2d是二维卷积方法,相对应的还有一维卷积方法nn.Conv1d,常用于文本数据的处理,而nn.Conv2d一般用于二维图像。 先看一下接口定义: 参数解释: stride:步长 zero padding:图像四周填0 dilation:控制 k 阅读全文
posted @ 2019-11-27 17:36 别再闹了 阅读(41728) 评论(0) 推荐(2)
摘要: 一句话概况:这是为了在低版本python中使用高版本特性而引入的,最常用的就是print_function来实现在2.x中使用3.x中的print()命令,从而避免在切换版本时修改代码。 https://blog.csdn.net/prettysky123/article/details/80970 阅读全文
posted @ 2019-11-27 17:18 别再闹了 阅读(568) 评论(0) 推荐(0)
摘要: 用只有2个G的显卡跑数据就需要在训练之前先把无关进程杀掉,防止跑到一半显存满了 :显示当前GPU中的线程 :输入PID以结束线程 阅读全文
posted @ 2019-11-27 17:11 别再闹了 阅读(6136) 评论(0) 推荐(0)
摘要: https://www.cnblogs.com/DswCnblog/p/6126588.html 看这篇文章的时候看到了python的 用法,很好奇,上网查了下,原来这就相当于对类进行实例化了。可以的,python真的简约 阅读全文
posted @ 2019-11-27 16:19 别再闹了 阅读(153) 评论(0) 推荐(0)