import pickle import os dataset_dir=os.path.dirname(os.path.abspath("__file__")) save_file=dataset_dir+"/mnist.pkl" def _change_one_hot_label(x): T=np.zeros((X.size,10)) for idx, row in enumerate(T): row[X[idx]]=1 return T def load_mnist(normalize=True, flatten=True, one_hot_label=False): if not os.path.exists(save_file): print("请下载数据") with open(save_file,'rb')as f: dataset=pickle.load(f) if normalize: for key in ('train_img','test_img'): dataset[key]=dataset[key].astype(np.float32) dataset[key] /=255.0 if one_hot_label: dataset['train_label']=_change_one_hot_label(dataset['train_label']) dataset['test_label']=_change_one_hot_label(dataset['test_label']) if not flatten: for key in ('train_img','test.img'): dataset[key]=dataset[key].reshape(-1,1,28,28) return (dataset['train_img'],dataset['train_label']),(dataset['test_img'],dataset['test_label'])
时间: 2024-02-26 11:54:26 浏览: 147
这段代码实现的是加载 MNIST 数据集的函数 load_mnist。具体来说,该函数会读取本地 mnist.pkl 文件,将训练集和测试集中的图像数据和标签数据分别存储在 dataset 字典中,并根据传入的参数 normalize、flatten 和 one_hot_label 对这些数据进行处理。
normalize 参数用于指定是否对图像数据进行归一化处理,即将像素值从 0-255 缩放到 0-1 之间。如果 normalize=True,则对训练集和测试集中的图像数据进行归一化处理。
flatten 参数用于指定是否将图像数据展开成一维向量。如果 flatten=True,则将训练集和测试集中的图像数据展开成形状为 (n, 784) 的二维数组,其中 n 是图像数量。否则,将图像数据保留为原始形状 (n, 1, 28, 28)。
one_hot_label 参数用于指定是否对标签数据进行 one-hot 编码。如果 one_hot_label=True,则将训练集和测试集中的标签数据进行 one-hot 编码处理。
最后,该函数返回训练集和测试集的图像数据和标签数据。
相关问题
import pickle import os #导入pickle和os库 dataset_dir=os.path.dirname(os.path.abspath("__file__")) save_file=dataset_dir+"/mnist.pkl" def _change_one_hot_label(x): T=np.zeros((X.size,10)) for idx, row in enumerate(T): row[X[idx]]=1 return T# def load_mnist(normalize=True, flatten=True, one_hot_label=False): if not os.path.exists(save_file): print("请下载数据") with open(save_file,'rb')as f: dataset=pickle.load(f) if normalize: for key in ('train_img','test_img'): dataset[key]=dataset[key].astype(np.float32) dataset[key] /=255.0 if one_hot_label: dataset['train_label']=_change_one_hot_label(dataset['train_label']) dataset['test_label']=_change_one_hot_label(dataset['test_label']) if not flatten: for key in ('train_img','test.img'): dataset[key]=dataset[key].reshape(-1,1,28,28) return (dataset['train_img'],dataset['train_label']),(dataset['test_img'],dataset['test_label'])
这段代码是一个加载MNIST数据集的函数。MNIST数据集是一个手写数字识别数据集,包含了60000张训练图片和10000张测试图片。函数中的参数normalize表示是否将像素值归一化到0.0~1.0之间,flatten表示是否将图片展开为一维数组,one_hot_label表示是否使用one-hot编码表示标签。函数返回的是一个元组,包含了训练集和测试集的图片和标签。其中,训练集图片的大小为(60000,784),测试集图片的大小为(10000,784),标签的大小为(60000,)和(10000,)。
import os.path import gzip import pickle import os import numpy as np import urllib url_base = 'http://yann.lecun.com/exdb/mnist/' key_file = { 'train_img':'train-images-idx3-ubyte.gz', 'train_label':'train-labels-idx1-ubyte.gz', 'test_img':'t10k-images-idx3-ubyte.gz', 'test_label':'t10k-labels-idx1-ubyte.gz' } dataset_dir = os.path.dirname(os.path.abspath("_file_")) save_file = dataset_dir + "/mnist.pkl" train_num=60000 test_num=10000 img_dim=(1,28,28) img_size=784 def _download(file_name): file_path = dataset_dir+"/"+file_name if os.path.exists(file_path): return print("Downloading"+file_name+" ... ") urllib.request.urlretrieve(url_base + file_name,file_path) print("Done") def download_mnist(): for v in key_file.values(): _download(v) def _load_label(file_name): file_path = dataset_dir+ "/" +file_name print("Converting" + file_name +"to Numpy Array ...") with gzip.open(file_path,'rb') as f: labels = np.frombuffer(f.read(),np.uint8,offset=8) print("Done") return labels def _load_img(file_name): file_path=dataset_dir+"/"+file_name print("Converting"+file_name+"to Numpy Array ...") with gzip.open(file_path,'rb') as f: data = np.frombuffer(f.read(),np.uint8,offset=16) data = data.reshape(-1,img_size) print("Done") return data def _convert_numpy(): dataset = {} dataset['train_img'] = _load_img(key_file['train_img']) dataset['train_label'] = _load_label(key_file['train_label']) dataset['test_img'] = _load_img(key_file['test_img']) dataset['test_label'] = _load_label(key_file['test_label']) return dataset def init_mnist(): download_mnist() dataset = _convert_numpy() print("Creating pickle file ...") with open(save_file,'wb') as f: pickle.dump(dataset,f,-1) print("Done") if __name__ =='__main__': init_mnist()
这段代码是用于下载MNIST数据集并将数据集转换成Numpy数组格式的函数。MNIST数据集是一个手写数字识别数据集,包含了60000张训练图片和10000张测试图片。在函数中,首先定义了数据集的下载地址和四个文件的名称,然后定义了四个函数用于下载和转换数据集。其中,_load_label和_load_img函数用于将标签和图片数据转换成Numpy数组格式,并且在转换过程中使用了gzip库解压缩数据。_convert_numpy函数用于将四个Numpy数组合成一个字典类型的数据集。最后,init_mnist函数用于下载数据集并将数据集转换成Numpy数组格式,并使用pickle库将数据集保存到本地文件中。如果MNIST数据集已经下载并保存到本地文件中,则直接加载本地文件中的数据集。
阅读全文