随笔分类 -  pytorch

pytorch 神经网络
Pytorch中Unormalize变换的实现
摘要:在torchvsion库中,transforms下边有个Normalize变换方法,用于图像数据的归一化: class torchvision.transforms.Normalize(mean, std) 给定均值:(R,G,B) 方差:(R,G,B),将会把Tensor正则化。即:Normali 阅读全文

posted @ 2022-01-24 11:10 看看完了 阅读(1647) 评论(0) 推荐(1) 编辑

spyder打开文件假死解决
摘要:spyder是python的开发环境,通常在anaconda随带。但spyder作为python的一个包,单独安装也十分方便,使用包的安装命令即可: pip install spyder 安装完成后,命令行输入: spyder 即可启动spyder: 但是在打开文件时会出现假死,非常的莫名其妙。搜索 阅读全文

posted @ 2020-11-17 16:47 看看完了 阅读(1147) 评论(0) 推荐(0) 编辑

一探torch.nn究竟“What is torch.nn really?”
摘要:来自: https://pytorch.org/tutorials/beginner/nn_tutorial.html 《What is torch.nn really?》这文章看起来不能再流畅了,看完就能了解pytorch的究竟。 by Jeremy Howard, fast.ai. Thanks 阅读全文

posted @ 2020-01-04 15:12 看看完了 阅读(303) 评论(0) 推荐(0) 编辑

Pytorch 分割模型构建和训练【直播】2019 年县域农业大脑AI挑战赛---(四)模型构建和网络训练
摘要:对于分割网络,如果当成一个黑箱就是:输入一个3x1024x1024 输出4x1024x1024。 我没有使用二分类,直接使用了四分类。 分类网络使用了SegNet,没有加载预训练模型,参数也是默认初始化。为了加快训练,1024输入进网络后直接通过 pooling缩小到256的尺寸,等到输出层,直接使 阅读全文

posted @ 2019-06-27 15:41 看看完了 阅读(2309) 评论(14) 推荐(3) 编辑

激活函数:Swish: a Self-Gated Activation Function
摘要:今天看到google brain 关于激活函数在2017年提出了一个新的Swish 激活函数。 叫swish,地址:https://arxiv.org/abs/1710.05941v1 pytorch里是这样的: Swish, which is simply f(x) = x ·sigmoid(x) 阅读全文

posted @ 2019-06-25 17:03 看看完了 阅读(2961) 评论(0) 推荐(0) 编辑

Pytorch 加载保存模型,进行模型推断【直播】2019 年县域农业大脑AI挑战赛---(三)保存结果
摘要:在模型训练结束,结束后,通常是一个分割模型,输入 1024x1024 输出 4x1024x1024。 一种方法就是将整个图切块,然后每张预测,但是有个不好处就是可能在边界处断续。 由于这种切块再预测很ugly,所以直接遍历整个图预测(这就是相当于卷积啊),防止边界断续,还有一个问题就是防止图过大不能 阅读全文

posted @ 2019-06-25 16:30 看看完了 阅读(2719) 评论(19) 推荐(2) 编辑

Pytorch dataset自定义【直播】2019 年县域农业大脑AI挑战赛---数据准备(二),Dataset定义
摘要:在我的torchvision库里介绍的博文(https://www.cnblogs.com/yjphhw/p/9773333.html)里说了对pytorch的dataset的定义方式。 本文相当于实现一个自定义的数据集,而这正是我们在做自己工程所需要的,我们总是用自己的数据嘛。 继承 from t 阅读全文

posted @ 2019-06-24 16:14 看看完了 阅读(2187) 评论(2) 推荐(1) 编辑

Pytorch【直播】2019 年县域农业大脑AI挑战赛---初级准备(一)切图
摘要:比赛地址:https://tianchi.aliyun.com/competition/entrance/231717/introduction 这次比赛给的图非常大5万x5万,在训练之前必须要进行数据的切割。通常切割后的大小为512x512,或者1024x1024. 按照512x512切完后的结果 阅读全文

posted @ 2019-06-24 14:33 看看完了 阅读(2226) 评论(2) 推荐(2) 编辑

一个发现图像里卷积的作用----平移算子
摘要:在当今深度学习火热的今天,图像处理的卷积算子必不可少。 可是卷积算子的含义是什么呢? 在图像检测里,通常要考虑平移,缩放,旋转。那么这些操作是怎么通过卷积实现的呢。 仅仅把网络当成函数拟合器是不够的。 今天发现特定的卷积算子就是平移操作!以下以原图像padding一个像素宽度,灰度为0。 对平移算子 阅读全文

posted @ 2019-04-29 15:57 看看完了 阅读(1612) 评论(6) 推荐(0) 编辑

物体检测的尺度效应实验
摘要:YOLO (https://pjreddie.com/darknet/yolo/)是一个非常好的一阶段对象检测器。 我也从这个小哥:https://blog.paperspace.com/tag/series-yolo/ 处下了一个pytorch的。 检测效果如下: 如果把图切成两块方形的: 可以看 阅读全文

posted @ 2019-04-06 16:50 看看完了 阅读(303) 评论(0) 推荐(0) 编辑

torchvision里densenet代码分析
摘要:大概就是这样,作为去年最好的分类框架densenet,里边有很多学习的地方。 可以给自己搭建网络提供参考。 阅读全文

posted @ 2018-11-28 20:01 看看完了 阅读(4983) 评论(0) 推荐(0) 编辑

什么是pytorch(4.数据集加载和处理)(翻译)
摘要:数据集加载和处理 这里主要涉及两个包:torchvision.datasets 和torch.utils.data.Dataset 和DataLoader torchvision.datasets是一些包装好的数据集 里边所有可用的dataset都是 torch.utils.data.Dataset 阅读全文

posted @ 2018-10-18 15:56 看看完了 阅读(1793) 评论(0) 推荐(0) 编辑

什么是pytorch(3神经网络)(翻译)
摘要:神经网络 torch.nn 包可以用来构建神经网络。 前面介绍了 autograd包, nn 依赖于 autograd 用于定义和求导模型。 nn.Module 包括layers(神经网络层), 以及forward函数 forward(input),其返回结果 output. 例如我们来看一个手写数 阅读全文

posted @ 2018-10-16 12:45 看看完了 阅读(1193) 评论(0) 推荐(0) 编辑

什么是pytorch(2Autograd:自动求导)(翻译)
摘要:Autograd: 自动求导 pyTorch里神经网络能够训练就是靠autograd包。我们来看下这个包,然后我们使用它来训练我们的第一个神经网络。 autograd 包提供了对张量的所有运算自动求导。它是一种在运行时才被定义的,意味着反向传播只有再代码运行的时候才会计算,每次循环的时候都可以不同, 阅读全文

posted @ 2018-10-15 19:48 看看完了 阅读(3625) 评论(0) 推荐(0) 编辑

什么是pytorch(1开始)(翻译)
摘要:Deep Learning with PyTorch: A 60 Minute Blitz 作者: Soumith Chintala 部分翻译:me 本内容包含: 在高级层面理解pytorch的tensor库以及神经网络。 训练一个用于图像分类的小的神经网络。 This tutorial assum 阅读全文

posted @ 2018-10-12 11:14 看看完了 阅读(1753) 评论(0) 推荐(0) 编辑

torchvision库简介(翻译)
摘要:部分跟新于:4.24日 torchvision 0.2.2.post3 torchvision是独立于pytorch的关于图像操作的一些方便工具库。 torchvision的详细介绍在:https://pypi.org/project/torchvision/ torchvision主要包括一下几个 阅读全文

posted @ 2018-10-11 16:37 看看完了 阅读(46602) 评论(0) 推荐(2) 编辑

梯度下降与pytorch
摘要:记得在tensorflow的入门里,介绍梯度下降算法的有效性时使用的例子求一个二次曲线的最小值。 这里使用pytorch复现如下: 1、手动计算导数,按照梯度下降计算 2、使用torch的autograd计算 下边来实验下使用梯度下降法求解直线回归问题,也就是最小二乘法的梯度下降求解(实际上回归问题 阅读全文

posted @ 2018-09-20 16:44 看看完了 阅读(2283) 评论(0) 推荐(0) 编辑

导航