cuda out of memory Torch
cuda out of memory Torch
解决方法一:
可能是显卡显存不够,减小batch size
解决方法二:
可能是在训练的过程中直接使用total_loss += batch_loss, 但是此使batch_loss依然保留在计算图中,直接相加可能造成显存紧张,建议使用total_loss += batch_loss.detach()
可能是显卡显存不够,减小batch size
可能是在训练的过程中直接使用total_loss += batch_loss, 但是此使batch_loss依然保留在计算图中,直接相加可能造成显存紧张,建议使用total_loss += batch_loss.detach()