Fork me on GitHub
摘要: 数据集下载地址: 链接:https://pan.baidu.com/s/1l1AnBgkAAEhh0vI5_loWKw提取码:2xq4 创建数据集:https://www.cnblogs.com/xiximayou/p/12398285.html 读取数据集:https://www.cnblogs. 阅读全文
posted @ 2020-03-16 21:57 西西嘛呦 阅读(2899) 评论(0) 推荐(0)
摘要: 不要使用太大的线性层。因为nn.Linear(m,n)使用的是 的内存,线性层太大很容易超出现有显存。 不要在太长的序列上使用RNN。因为RNN反向传播使用的是BPTT算法,其需要的内存和输入序列的长度呈线性关系。 model(x) 前用 model.train() 和 model.eval() 切 阅读全文
posted @ 2020-03-16 19:39 西西嘛呦 阅读(327) 评论(0) 推荐(0)
摘要: 目录: 分类模型训练代码 分类模型测试代码 自定义损失函数 标签平滑 mixup训练 L1正则化 不对偏置项进行权重衰减 梯度裁剪 得到当前学习率 学习率衰减 优化器链式更新 模型训练可视化 保存和加载断点 提取Imagenet预训练模型的某层特征 提取imagenet预训练模型的多层特征 微调全连 阅读全文
posted @ 2020-03-16 19:36 西西嘛呦 阅读(3175) 评论(0) 推荐(1)
摘要: 1、计算数据集的均值和方差 import os import cv2 import numpy as np from torch.utils.data import Dataset from PIL import Image def compute_mean_and_std(dataset): # 阅读全文
posted @ 2020-03-16 19:13 西西嘛呦 阅读(352) 评论(0) 推荐(0)
摘要: modules()会返回模型中所有模块的迭代器,它能够访问到最内层,比如self.layer1.conv1这个模块,还有一个与它们相对应的是name_children()属性以及named_modules(),这两个不仅会返回模块的迭代器,还会返回网络层的名字。 # 取模型中的前两层 new_mod 阅读全文
posted @ 2020-03-16 19:10 西西嘛呦 阅读(1985) 评论(0) 推荐(0)
摘要: 注意 model.modules() 和 model.children() 的区别:model.modules() 会迭代地遍历模型的所有子层,而 model.children() 只会遍历模型下的一层。 # Common practise for initialization. for layer 阅读全文
posted @ 2020-03-16 19:08 西西嘛呦 阅读(471) 评论(0) 推荐(0)
摘要: 数据集下载地址: 链接:https://pan.baidu.com/s/1l1AnBgkAAEhh0vI5_loWKw提取码:2xq4 创建数据集:https://www.cnblogs.com/xiximayou/p/12398285.html 读取数据集:https://www.cnblogs. 阅读全文
posted @ 2020-03-16 16:13 西西嘛呦 阅读(12515) 评论(0) 推荐(0)