摘要: 1、打印梯度 for name, param in model.named_parameters(): if param.requires_grad: if param.grad is not None: print("{}, gradient: {}".format(name, param.gra 阅读全文
posted @ 2020-06-04 16:24 blackx 阅读(1969) 评论(0) 推荐(0) 编辑
摘要: 一、coco数据集 [1] - train2014 images: (13GB) http://images.cocodataset.org/zips/train2014.zip [2] - val2014 images:(6GB) http://images.cocodataset.org/zip 阅读全文
posted @ 2020-05-28 23:38 blackx 阅读(1352) 评论(0) 推荐(0) 编辑
摘要: 1、pytorch 实现一个上采样层,代码如下 import torch import torch.nn as nn import torch.nn.functional as F import os import cv2 import numpy as np class TestUpsample( 阅读全文
posted @ 2020-05-21 17:25 blackx 阅读(4374) 评论(5) 推荐(0) 编辑
摘要: 使用不同的深度学习框架,以及训练不同的目标检测模型时,其各源码map测试接口的实现都不一样。为了方便统一对比不同模型的优劣,使用如下方法进行各个模型map的计算 1、制作相同的测试集,例如 valid.txt 文件,里面保存需要测试图片的路径 2、检测识别 valid.txt 文件里的图片数据,将测 阅读全文
posted @ 2020-05-21 16:02 blackx 阅读(421) 评论(0) 推荐(0) 编辑
摘要: 每次将tensor保存为图片时,总是要先将tensor转换到cpu,然后再转换到numpy,最后再保存图片,过程太繁琐。今天介绍个pytorch的原生api,可以直接将cuda tensor 保存为图片。 import torch import torchvision import numpy as 阅读全文
posted @ 2020-05-20 11:29 blackx 阅读(5503) 评论(0) 推荐(0) 编辑
摘要: 1、问题描述: pytorch中,在测试阶段进行前向推断运行时,随着for循环次数的增加,显存不断累加变大,最终导致显存溢出。 2、解决方法: 使用如下代码处理输入数据: 假设X为模型的输入 X = X.cuda() input_blobs = Variable(X, volatile=True) 阅读全文
posted @ 2018-11-05 18:13 blackx 阅读(4426) 评论(0) 推荐(0) 编辑
摘要: 1、检查输入数据和target中是否有 nan 值。 np.any(np.isnan(x)) np.any(np.isnan(target)) 2、减小loss 3、rnn中发生梯度爆炸,检查参数值和参数梯度,截断梯度。 阅读全文
posted @ 2018-11-02 14:00 blackx 阅读(7094) 评论(0) 推荐(0) 编辑
摘要: 1、nodepad++ 中正则表达是分组 使用\1,\2,表示分组内容,比如\1,表示第一个分组,\2表示第二个分组,以此类推 示例(.*)xxx(.*) > \1x\2 其中(.*)表示分组内容,\1,\2分别表示两个分组内容,在替换操作中,可以保持分组内容不变。 2、pycharm中的正则表达式 阅读全文
posted @ 2018-08-21 23:04 blackx 阅读(2618) 评论(0) 推荐(0) 编辑
摘要: xml.etree.ElementTree的常用API 1、解析xml 读取xml的两种方式: element对象的常用属性: 1. tag:string对象,表示标签内容。 2. attrib:dictionary对象,表示标签的属性。 3. text:string对象,表示element的内容。 阅读全文
posted @ 2018-08-16 16:32 blackx 阅读(191) 评论(0) 推荐(0) 编辑
摘要: 1、问题: 在Windows家庭版下安装了docker,并尝试在其中运行jupyter notebook等服务,但映射完毕之后,在主机的浏览器中,打开localhost:port无法访问对应的服务。 2、问题出现的原因: The reason you’re having this, is becau 阅读全文
posted @ 2018-03-31 17:44 blackx 阅读(17511) 评论(7) 推荐(6) 编辑