08 2019 档案

摘要:【静态经验】 1. ResNet-50 3D,#param大约30+M,kinetics-400,dropout使用0.2,weight decay使用5e-4,momentum 0.9。 2. ResNet-23 2D,#param大约11M,kinetics-400,dropout使用0.5,w 阅读全文
posted @ 2019-08-10 09:59 leizhao 阅读(464) 评论(0) 推荐(0)
摘要:Batch Normalization:对一个mini batch的样本,经过一个nueron(或filter)后生成的feature map中的所有point进行归一化。(纵向归一化) Layer Normalization:对单个样本,经过一个卷积层的所有neuron(或filter)后生成的f 阅读全文
posted @ 2019-08-09 18:54 leizhao 阅读(595) 评论(0) 推荐(0)
摘要:【监视IO】 Linux18.04自带工具sysstat,其中的iostat可以用于观察IO情况。Linux16.04系统没有默认安装,需要手动安装,安装sysstat时需要下载新的内核(我的原本是143,下载了一个150)。 常用指令: 【监视内存】 htop, top, free 【监视CPU】 阅读全文
posted @ 2019-08-09 11:21 leizhao 阅读(547) 评论(0) 推荐(0)
摘要:其中: total:代表内存总大小; used:表示使用的实际内存大小; free:剩余物理内存大小(未分配、纯剩余); share:共享内存大小、无需关注; buff/cache:缓冲(缓冲如:cpu到io硬盘,硬盘写入速度慢 需要先将一部分数据缓存到内存)和缓存(如:io硬盘到cpu,从硬盘读取 阅读全文
posted @ 2019-08-07 17:13 leizhao 阅读(276) 评论(0) 推荐(0)
摘要:Pytorch中的BatchNorm的API主要有: 一般来说pytorch中的模型都是继承nn.Module类的,都有一个属性trainning指定是否是训练状态,训练状态与否将会影响到某些层的参数是否是固定的,比如BN层或者Dropout层。通常用model.train()指定当前模型model 阅读全文
posted @ 2019-08-05 15:55 leizhao 阅读(6520) 评论(1) 推荐(0)