【Pytorch】要求每个batch为相同的size

2022-10-10 12:07:16

最近一个实验想多个size的sample送入网络中,但是每个batch要求size大小一致
在这里插入图片描述

PyTorch中的DataLoader为了并行计算,要求batch内的图像矩阵必须有相同的size,但是却没有要求不同的batch之间必须是相同的size。你可以自定义一个sampler,让每个batch内部的图片的size尽量接近,然后再在collate_fn函数里面稍微resize一下(比如按batch内最大的图片尺寸进行resize),就可以实现不同size的图片的并行训练了。

  • 作者:heroybc
  • 原文链接:https://blog.csdn.net/heroybc/article/details/116233679
    更新时间:2022-10-10 12:07:16