摘要: cuda out of memory Torch 解决方法一: 可能是显卡显存不够,减小batch size 解决方法二: 可能是在训练的过程中直接使用total_loss += batch_loss, 但是此使batch_loss依然保留在计算图中,直接相加可能造成显存紧张,建议使用total_l 阅读全文
posted @ 2021-04-20 11:30 YouKnowWho 阅读(204) 评论(1) 推荐(1)