# 定义数据集读取器 def load_data(mode='train'): # 数据文件 datafile = './data/data116648/mnist.json.gz' print('loading mnist dataset from {} ......'.format(datafile)) data = json.load(gzip.open(datafile)) train_set, val_set, eval_set = data # 数据集相关参数,图片高度IMG_ROWS, 图片宽度IMG_COLS IMG_ROWS = 28 IMG_COLS = 28 if mode == 'train': imgs = train_set[0] labels = train_set[1] elif mode == 'valid': imgs = val_set[0] labels = val_set[1] elif mode == 'eval': imgs = eval_set[0] labels = eval_set[1] imgs_length = len(imgs) assert len(imgs) == len(labels), \ "length of train_imgs({}) should be the same as train_labels({})".format( len(imgs), len(labels)) index_list = list(range(imgs_length)) # 读入数据时用到的batchsize BATCHSIZE = 100 # 定义数据生成器 def data_generator(): if mode == 'train': random.shuffle(index_list) imgs_list = [] labels_list = [] for i in index_list: img = np.reshape(imgs[i], [1, IMG_ROWS, IMG_COLS]).astype('float32') img_trans=-img #转变颜色 label = np.reshape(labels[i], [1]).astype('int64') label_trans=label imgs_list.append(img) imgs_list.append(img_trans) labels_list.append(label) labels_list.append(label_trans) if len(imgs_list) == BATCHSIZE: yield np.array(imgs_list), np.array(labels_list) imgs_list = [] labels_list = [] # 如果剩余数据的数目小于BATCHSIZE, # 则剩余数据一起构成一个大小为len(imgs_list)的mini-batch if len(imgs_list) > 0: yield np.array(imgs_list), np.array(labels_list) return data_generator
时间: 2024-01-17 08:05:25 浏览: 246
这段代码定义了一个数据集读取器load_data,用于读取MNIST数据集。具体实现如下:
- 首先从文件中加载MNIST数据集,数据集文件为'mnist.json.gz',其中包含了训练集、验证集和测试集的图像和标签数据。
- 根据不同的mode参数,从数据集中选择相应的数据集,包括训练集、验证集和测试集。
- 定义了一个数据生成器data_generator,用于生成mini-batch大小的图像数据和标签数据。其中,通过random.shuffle(index_list)实现数据集的随机打乱,防止模型过拟合。另外,为了增加数据的多样性,对于每个图像数据,还进行了颜色反转的处理。
- 最后,返回数据生成器。
阅读全文