工作小结六
摘要:一. torch数据并行 DataParallel是单进程,多线程情况,DistributedDataParallel支持多进程多线程(当然你可以当做单进程多线程使用)。 关于更细致的解释不多说:参考 关于进程的执行: 粗暴的方式,直接在多个命令行执行多个python train.py --rank
阅读全文
posted @ 2020-06-10 10:42
posted @ 2020-06-10 10:42
posted @ 2020-03-18 20:57
posted @ 2019-12-21 21:24
posted @ 2019-11-17 20:53
posted @ 2019-10-23 21:37
posted @ 2019-10-09 22:31