train, test= torch.utils.data.random_split(dataset=all_dataset, lengths=[1800,200])用这种方法对数据进行划分划分后的样本数量分布是如何的
时间: 2024-03-29 22:39:18 浏览: 115
使用 `torch.utils.data.random_split` 划分数据集时,参数 `lengths` 指定的是每个子集的长度,因此训练集和测试集的样本数量分别为 1800 和 200。
如果 `all_dataset` 是一个包含 2000 个样本的数据集,那么经过划分后,训练集包含前 1800 个样本,测试集包含后 200 个样本。如果 `all_dataset` 中的样本是随机排序的,那么划分后的训练集和测试集中的样本应该也是随机的。
相关问题
-- Process 0 terminated with the following error: Traceback (most recent call last): File "/home/pai/envs/3.7/lib/python3.7/site-packages/torch/multiprocessing/spawn.py", line 69, in _wrap fn(i, *args) File "/mnt/workspace/emotional-vits/train_ms.py", line 131, in run [train_loader, eval_loader], logger, [writer, writer_eval]) File "/mnt/workspace/emotional-vits/train_ms.py", line 152, in train_and_evaluate for batch_idx, (x, x_lengths, spec, spec_lengths, y, y_lengths, speakers, emo) in enumerate(train_loader): File "/home/pai/envs/3.7/lib/python3.7/site-packages/torch/utils/data/dataloader.py", line 435, in __iter__ return self._get_iterator() File "/home/pai/envs/3.7/lib/python3.7/site-packages/torch/utils/data/dataloader.py", line 381, in _get_iterator return _MultiProcessingDataLoaderIter(self) File "/home/pai/envs/3.7/lib/python3.7/site-packages/torch/utils/data/dataloader.py", line 988, in __init__ super(_MultiProcessingDataLoaderIter, self).__init__(loader) File "/home/pai/envs/3.7/lib/python3.7/site-packages/torch/utils/data/dataloader.py", line 598, in __init__ self._sampler_iter = iter(self._index_sampler) File "/mnt/workspace/emotional-vits/data_utils.py", line 372, in __iter__ ids_bucket = ids_bucket + ids_bucket * (rem // len_bucket) + ids_bucket[:(rem % len_bucket)] ZeroDivisionError: integer division or modulo by zero
这个错误通常是由于代码中将一个数除以零或者取模运算导致的,而这个数的值为零。具体地讲,这个错误出现在了使用 PyTorch 的 DataLoader 加载数据的过程中。
根据错误提示,这个问题可能是由于数据集中的某些 batch 大小为零导致的。你可以检查你的数据集中是否存在这样的 batch,如果存在,可以将其从数据集中删除或者将其合并到其他 batch 中。
另外,你也可以检查你的代码中使用 DataLoader 的方式是否正确。例如,你可以尝试设置 `num_workers` 参数为 0,这样可以将 DataLoader 的多进程加载功能关闭,避免可能的并发问题。具体的做法是在 DataLoader 的初始化过程中添加 `num_workers=0` 参数:
```
train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True, num_workers=0)
```
希望这些方法能帮到你解决问题!
random_split函数
random_split函数是PyTorch中的一个函数,用于将数据集按照给定的比例随机分成两个子集。该函数的语法如下:
torch.utils.data.random_split(dataset, lengths)
其中,dataset是要划分的数据集,lengths是一个整数数组,表示划分后每个子集的长度。
例如,将一个有100个数据样本的数据集随机分成70个和30个两个子集,可以使用如下代码:
import torch.utils.data as data
dataset = data.TensorDataset(torch.randn(100, 3), torch.randn(100, 1))
train_set, val_set = data.random_split(dataset, [70, 30])
在上面的代码中,dataset是一个有100个数据样本的数据集,每个样本包含3个特征和1个标签。使用random_split函数将其随机划分成长度分别为70和30的两个子集train_set和val_set。
阅读全文