cuda out of memory Torch

cuda out of memory Torch

解决方法一:

可能是显卡显存不够,减小batch size

解决方法二:

可能是在训练的过程中直接使用total_loss += batch_loss, 但是此使batch_loss依然保留在计算图中,直接相加可能造成显存紧张,建议使用total_loss += batch_loss.detach()

posted @ 2021-04-20 11:30  YouKnowWho  阅读(204)  评论(1)    收藏  举报