pytorch:解决训练数据不能被batch_size整除

pytorch:解决训练数据不能被batch_size整除

 

 

 

方法:直接丢弃不足一个batch_size大小的数据

代码截图:

 

 在使用DataLoader加载数据时,加上参数drop_last=True即可

不加参数drop_last的默认值为False

posted @ 2023-02-23 20:08  CannedDream  阅读(312)  评论(0编辑  收藏  举报