RTX 2070 super与GTX 1060 6G的性能对比

最近两天,我入手了一个RTX 2070 super 8G的GPU,想要替换掉原来的GTX 1060 6G的GPU。虽说网上都说新入手的GPU的性能比原来的强大得多,我还是通过一个简单的实验来对比了一下两张GPU做深度学习的效果。

实验配置是在一台配置了i5 8500,16G RAM的电脑上完成了。在这台电脑上,分别测试两张显卡对同一个深度模型进行训练所需要的时间,所测试的情况包括如下集中:

1、RTX 2070 super,epoch=5,batch_size = 200,数据集放置在机械硬盘上。每个epoch的训练用时为:[54.04, 54.15, 54.12, 54.07, 54.09];

2、RTX 2070 super,epoch=5,batch_size = 300,数据集放置在机械硬盘上。每个epoch的训练用时为:[52.64, 52.80, 52.57, 52.62, 52.67];

3、RTX 2070 super,epoch=5,batch_size = 200,数据集放置在固态硬盘上。每个epoch的训练用时为:[53.22, 53.12, 53.00, 53.99, 53.22];

4、RTX 2070 super,epoch=5,batch_size = 300,数据集放置在固态硬盘上。每个epoch的训练用时为:[52.56, 52.49, 52.46, 52.35, 52.53];

5、GTX 1060,epoch=5,batch_size = 200,数据集放置在机械硬盘上。每个epoch的训练用时为:[83.66, 83.66, 83.62, 83.55, 83.60];

对比1和5的结果发现RTX 2070 super的训练速度相较于GTX 1060要快上35%左右,训练速度的提升还是蛮明显的。

由于新显卡有着更高的显存,因此每一批可以容纳下更多的张量数据,因此可以通过调大batch_size来保证GPU有着更高的使用率,对比1和2的结果,发现训练速度还是有一定的提升的。

考虑到对图片数据的读写速度也会影响模型训练的用时,因此我将训练集从机械硬盘放置到固态硬盘上,结果显示在3上,对比1的结果,训练速度也有一定的提升。

最后我使用高batch_size并且使用在固态硬盘上的数据做训练,得到4的结果,这也是所能得到的最佳结果。

综上,或许可以得到以下结论:对于深度学习训练速度的提升效果,显卡性能>batch_size>固态硬盘。

posted @ 2020-08-11 23:44  NewRookie  阅读(3762)  评论(1编辑  收藏  举报