指定GPU训练模型

公司或者实验室当大家都共用一台服务器时,训练模型的时候如果不指定GPU,往往会冲突。

我们可以先用

nvidia-smi

查看有多少块GPU,

然后分两种方式指定GPU运行。

1、直接在终端运行时加入相关语句实现指定GPU的使用

CUDA_VISIBLE_DEVICES=0 python test.py
# 表示运行test.py文件时,使用编号为0的GPU卡
CUDA_VISIBLE_DEVICES=0,2 python test.py
# 表示运行test.py文件时,使用编号为0和2的GPU卡

2、在Python程序中添加

import os
# 使用第一张与第三张GPU卡
os.environ["CUDA_VISIBLE_DEVICES"] = "0, 2"

 

posted @ 2020-02-18 17:18  理想几岁  阅读(5416)  评论(0编辑  收藏  举报