【Pytorch】要求每个batch为相同的size 2022-10-10 12:07:16 最近一个实验想多个size的sample送入网络中,但是每个batch要求size大小一致PyTorch中的DataLoader为了并行计算,要求batch内的图像矩阵必须有相同的size,但是却没有要求不同的batch之间必须是相同的size。你可以自定义一个sampler,让每个batch内部的图片的size尽量接近,然后再在collate_fn函数里面稍微resize一下(比如按batch内最大的图片尺寸进行resize),就可以实现不同size的图片的并行训练了。