2021年4月1日

pytorch单机多卡并行计算示例

摘要: 一个简单的例子。 注意: os.environ['MASTER_ADDR'] = 'xxx.xx.xx.xxx' # 这里填写电脑的IP地址 os.environ['MASTER_PORT'] = '29555' # 空闲端口 这两个参数似乎必须提前给出,选择的初始化方法为init_method=" 阅读全文

posted @ 2021-04-01 16:24 那抹阳光1994 阅读(1345) 评论(0) 推荐(0)

pytorch 分布式训练 distributed parallel 笔记

摘要: pytorch 分布式训练 distributed parallel 笔记 阅读全文

posted @ 2021-04-01 15:59 那抹阳光1994 阅读(206) 评论(0) 推荐(0)

pytorch保存模型并记录最优模型

摘要: # https://github.com/tczhangzhi/pytorch-distributed/blob/master/distributed.py # remember best acc@1 and save checkpoint is_best = acc1 > best_acc1 be 阅读全文

posted @ 2021-04-01 14:44 那抹阳光1994 阅读(3541) 评论(0) 推荐(0)

导航