(原)torch7中指定可见的GPU

转载请注明出处:

http://www.cnblogs.com/darkknightzh/p/7418694.html

参考网址:

https://gitter.im/torch/torch7/archives/2015/05/21

https://gitter.im/torch/torch7/archives/2015/09/04

在使用tensorflow时,可以指定哪些GPU可见,这样tensorflow在分配内存时,不会把每个gpu都分配内存。

以前使用torch7时,一直是直接th script.lua。但是电脑上有多个gpu时,每个gpu均会占用186M的显存。虽然占用的不多,但是总感觉不爽。

实际上,也可以设置运行torch的lua程序时,哪些gpu可见(默认全部可见)。如下:

CUDA_VISIBLE_DEVICES=2,3 th script.lua

上面GPU编号从0开始,相当于使用电脑中的第三个和第四个GPU(lua默认从1开始)。

程序中在使用cutorch时,GPU由于从1开始,以前使用3,4这两个,加上上面那句话后,程序内部改成1,2这两个GPU即可(加上那句话后,可见的GPU就是1,2了)。

 

posted on 2017-08-23 16:07  darkknightzh  阅读(1784)  评论(0编辑  收藏  举报

导航