batch_size和total batch_size、normal batch_size的区别
时间: 2024-01-18 13:02:23 浏览: 128
pytorch dataloader 取batch_size时候出现bug的解决方式
batch_size通常指的是在训练神经网络时,每次输入模型的样本数。而total batch_size则是指整个训练集被分成多少个batch,也就是说,total batch_size等于训练集的大小除以batch_size。normal batch_size则是指普通的batch_size,即每次输入模型的样本数。
举个例子,如果训练集大小为1000,batch_size为32,则每次输入模型的样本数为32,total batch_size为1000/32=31.25,通常向上取整为32。
阅读全文