imgs = loader_train.__iter__().next()[0].view(batch_size, 784).numpy(),怎么修改

时间: 2024-04-15 19:27:38 浏览: 238
ZIP

imgs.zip_imgs.com_imgs图片_web 图片展示_展示_左右滑动模

要修改这行代码,你可以使用以下方式: ```python imgs = next(iter(loader_train))[0].view(batch_size, 784).numpy() ``` 这里使用`next(iter(loader_train))`来替代`loader_train.__iter__().next()`。这两种方法是等效的,都是获取`loader_train`中的下一个batch数据。然后使用`.view(batch_size, 784)`来改变数据的形状,并最后使用`.numpy()`将数据转换为NumPy数组。
阅读全文

相关推荐

# 定义数据集读取器 def load_data(mode='train'): # 数据文件 datafile = './data/data116648/mnist.json.gz' print('loading mnist dataset from {} ......'.format(datafile)) data = json.load(gzip.open(datafile)) train_set, val_set, eval_set = data # 数据集相关参数,图片高度IMG_ROWS, 图片宽度IMG_COLS IMG_ROWS = 28 IMG_COLS = 28 if mode == 'train': imgs = train_set[0] labels = train_set[1] elif mode == 'valid': imgs = val_set[0] labels = val_set[1] elif mode == 'eval': imgs = eval_set[0] labels = eval_set[1] imgs_length = len(imgs) assert len(imgs) == len(labels), \ "length of train_imgs({}) should be the same as train_labels({})".format( len(imgs), len(labels)) index_list = list(range(imgs_length)) # 读入数据时用到的batchsize BATCHSIZE = 100 # 定义数据生成器 def data_generator(): if mode == 'train': random.shuffle(index_list) imgs_list = [] labels_list = [] for i in index_list: img = np.reshape(imgs[i], [1, IMG_ROWS, IMG_COLS]).astype('float32') img_trans=-img #转变颜色 label = np.reshape(labels[i], [1]).astype('int64') label_trans=label imgs_list.append(img) imgs_list.append(img_trans) labels_list.append(label) labels_list.append(label_trans) if len(imgs_list) == BATCHSIZE: yield np.array(imgs_list), np.array(labels_list) imgs_list = [] labels_list = [] # 如果剩余数据的数目小于BATCHSIZE, # 则剩余数据一起构成一个大小为len(imgs_list)的mini-batch if len(imgs_list) > 0: yield np.array(imgs_list), np.array(labels_list) return data_generator

下面代码在tensorflow中出现了init() missing 1 required positional argument: 'cell'报错: class Model(): def init(self): self.img_seq_shape=(10,128,128,3) self.img_shape=(128,128,3) self.train_img=dataset # self.test_img=dataset_T patch = int(128 / 2 ** 4) self.disc_patch = (patch, patch, 1) self.optimizer=tf.keras.optimizers.Adam(learning_rate=0.001) self.build_generator=self.build_generator() self.build_discriminator=self.build_discriminator() self.build_discriminator.compile(loss='binary_crossentropy', optimizer=self.optimizer, metrics=['accuracy']) self.build_generator.compile(loss='binary_crossentropy', optimizer=self.optimizer) img_seq_A = Input(shape=(10,128,128,3)) #输入图片 img_B = Input(shape=self.img_shape) #目标图片 fake_B = self.build_generator(img_seq_A) #生成的伪目标图片 self.build_discriminator.trainable = False valid = self.build_discriminator([img_seq_A, fake_B]) self.combined = tf.keras.models.Model([img_seq_A, img_B], [valid, fake_B]) self.combined.compile(loss=['binary_crossentropy', 'mse'], loss_weights=[1, 100], optimizer=self.optimizer,metrics=['accuracy']) def build_generator(self): def res_net(inputs, filters): x = inputs net = conv2d(x, filters // 2, (1, 1), 1) net = conv2d(net, filters, (3, 3), 1) net = net + x # net=tf.keras.layers.LeakyReLU(0.2)(net) return net def conv2d(inputs, filters, kernel_size, strides): x = tf.keras.layers.Conv2D(filters, kernel_size, strides, 'same')(inputs) x = tf.keras.layers.BatchNormalization()(x) x = tf.keras.layers.LeakyReLU(alpha=0.2)(x) return x d0 = tf.keras.layers.Input(shape=(10, 128, 128, 3)) out= ConvRNN2D(filters=32, kernel_size=3,padding='same')(d0) out=tf.keras.layers.Conv2D(3,1,1,'same')(out) return keras.Model(inputs=d0, outputs=out) def build_discriminator(self): def d_layer(layer_input, filters, f_size=4, bn=True): d = tf.keras.layers.Conv2D(filters, kernel_size=f_size, strides=2, padding='same')(layer_input) if bn: d = tf.keras.layers.BatchNormalization(momentum=0.8)(d) d = tf.keras.layers.LeakyReLU(alpha=0.2)(d) return d img_A = tf.keras.layers.Input(shape=(10, 128, 128, 3)) img_B = tf.keras.layers.Input(shape=(128, 128, 3)) df = 32 lstm_out = ConvRNN2D(filters=df, kernel_size=4, padding="same")(img_A) lstm_out = tf.keras.layers.LeakyReLU(alpha=0.2)(lstm_out) combined_imgs = tf.keras.layers.Concatenate(axis=-1)([lstm_out, img_B]) d1 = d_layer(combined_imgs, df)#64 d2 = d_layer(d1, df * 2)#32 d3 = d_layer(d2, df * 4)#16 d4 = d_layer(d3, df * 8)#8 validity = tf.keras.layers.Conv2D(1, kernel_size=4, strides=1, padding='same')(d4) return tf.keras.Model([img_A, img_B], validity)

import torch, os, cv2 from model.model import parsingNet from utils.common import merge_config from utils.dist_utils import dist_print import torch import scipy.special, tqdm import numpy as np import torchvision.transforms as transforms from data.dataset import LaneTestDataset from data.constant import culane_row_anchor, tusimple_row_anchor if __name__ == "__main__": torch.backends.cudnn.benchmark = True args, cfg = merge_config() dist_print('start testing...') assert cfg.backbone in ['18','34','50','101','152','50next','101next','50wide','101wide'] if cfg.dataset == 'CULane': cls_num_per_lane = 18 elif cfg.dataset == 'Tusimple': cls_num_per_lane = 56 else: raise NotImplementedError net = parsingNet(pretrained = False, backbone=cfg.backbone,cls_dim = (cfg.griding_num+1,cls_num_per_lane,4), use_aux=False).cuda() # we dont need auxiliary segmentation in testing state_dict = torch.load(cfg.test_model, map_location='cpu')['model'] compatible_state_dict = {} for k, v in state_dict.items(): if 'module.' in k: compatible_state_dict[k[7:]] = v else: compatible_state_dict[k] = v net.load_state_dict(compatible_state_dict, strict=False) net.eval() img_transforms = transforms.Compose([ transforms.Resize((288, 800)), transforms.ToTensor(), transforms.Normalize((0.485, 0.456, 0.406), (0.229, 0.224, 0.225)), ]) if cfg.dataset == 'CULane': splits = ['test0_normal.txt', 'test1_crowd.txt', 'test2_hlight.txt', 'test3_shadow.txt', 'test4_noline.txt', 'test5_arrow.txt', 'test6_curve.txt', 'test7_cross.txt', 'test8_night.txt'] datasets = [LaneTestDataset(cfg.data_root,os.path.join(cfg.data_root, 'list/test_split/'+split),img_transform = img_transforms) for split in splits] img_w, img_h = 1640, 590 row_anchor = culane_row_anchor elif cfg.dataset == 'Tusimple': splits = ['test.txt'] datasets = [LaneTestDataset(cfg.data_root,os.path.join(cfg.data_root, split),img_transform = img_transforms) for split in splits] img_w, img_h = 1280, 720 row_anchor = tusimple_row_anchor else: raise NotImplementedError for split, dataset in zip(splits, datasets): loader = torch.utils.data.DataLoader(dataset, batch_size=1, shuffle = False, num_workers=1) fourcc = cv2.VideoWriter_fourcc(*'MJPG') print(split[:-3]+'avi') vout = cv2.VideoWriter(split[:-3]+'avi', fourcc , 30.0, (img_w, img_h)) for i, data in enumerate(tqdm.tqdm(loader)): imgs, names = data imgs = imgs.cuda() with torch.no_grad(): out = net(imgs) col_sample = np.linspace(0, 800 - 1, cfg.griding_num) col_sample_w = col_sample[1] - col_sample[0] out_j = out[0].data.cpu().numpy() out_j = out_j[:, ::-1, :] prob = scipy.special.softmax(out_j[:-1, :, :], axis=0) idx = np.arange(cfg.griding_num) + 1 idx = idx.reshape(-1, 1, 1) loc = np.sum(prob * idx, axis=0) out_j = np.argmax(out_j, axis=0) loc[out_j == cfg.griding_num] = 0 out_j = loc # import pdb; pdb.set_trace() vis = cv2.imread(os.path.join(cfg.data_root,names[0])) for i in range(out_j.shape[1]): if np.sum(out_j[:, i] != 0) > 2: for k in range(out_j.shape[0]): if out_j[k, i] > 0: ppp = (int(out_j[k, i] * col_sample_w * img_w / 800) - 1, int(img_h * (row_anchor[cls_num_per_lane-1-k]/288)) - 1 ) cv2.circle(vis,ppp,5,(0,255,0),-1) vout.write(vis) vout.release()

from pdb import set_trace as st import os import numpy as np import cv2 import argparse parser = argparse.ArgumentParser('create image pairs') parser.add_argument('--fold_A', dest='fold_A', help='input directory for image A', type=str, default='../dataset/50kshoes_edges') parser.add_argument('--fold_B', dest='fold_B', help='input directory for image B', type=str, default='../dataset/50kshoes_jpg') parser.add_argument('--fold_AB', dest='fold_AB', help='output directory', type=str, default='../dataset/test_AB') parser.add_argument('--num_imgs', dest='num_imgs', help='number of images',type=int, default=1000000) parser.add_argument('--use_AB', dest='use_AB', help='if true: (0001_A, 0001_B) to (0001_AB)',action='store_true') args = parser.parse_args() for arg in vars(args): print('[%s] = ' % arg, getattr(args, arg)) splits = os.listdir(args.fold_A) for sp in splits: img_fold_A = os.path.join(args.fold_A, sp) img_fold_B = os.path.join(args.fold_B, sp) img_list = os.listdir(img_fold_A) if args.use_AB: img_list = [img_path for img_path in img_list if '_A.' in img_path] num_imgs = min(args.num_imgs, len(img_list)) print('split = %s, use %d/%d images' % (sp, num_imgs, len(img_list))) img_fold_AB = os.path.join(args.fold_AB, sp) if not os.path.isdir(img_fold_AB): os.makedirs(img_fold_AB) print('split = %s, number of images = %d' % (sp, num_imgs)) for n in range(num_imgs): name_A = img_list[n] path_A = os.path.join(img_fold_A, name_A) if args.use_AB: name_B = name_A.replace('_A.', '_B.') else: name_B = name_A path_B = os.path.join(img_fold_B, name_B) if os.path.isfile(path_A) and os.path.isfile(path_B): name_AB = name_A if args.use_AB: name_AB = name_AB.replace('_A.', '.') # remove _A path_AB = os.path.join(img_fold_AB, name_AB) im_A = cv2.imread(path_A, cv2.IMREAD_COLOR) im_B = cv2.imread(path_B, cv2.IMREAD_COLOR) im_AB = np.concatenate([im_A, im_B], 1) cv2.imwrite(path_AB, im_AB),解释上述代码,并告诉我怎么设置文件夹格式

最新推荐

recommend-type

基于pytorch的UNet_demo实现及训练自己的数据集.docx

- `-b`表示批大小(batch size) - `-l`表示学习率 - `-s`表示缩放比例 - `-v`表示验证集比例 - **训练自己的数据集**: 调整数据集命名以保持一一对应,确保输入是3通道图像,输出是单通道掩模。如果遇到`...
recommend-type

用于yolov3将python训练的h5文件转为darknet的weight格式文件的工具

用于yolov3将python训练的h5文件转为darknet的weight格式文件的工具
recommend-type

node-silverpop:轻松访问Silverpop Engage API的Node.js实现

资源摘要信息:"node-silverpop:Silverpop Engage API 的 Node.js 库" 知识点概述: node-silverpop 是一个针对 Silverpop Engage API 的 Node.js 封装库,它允许开发者以 JavaScript 语言通过 Node.js 环境与 Silverpop Engage 服务进行交互。Silverpop Engage 是一个营销自动化平台,广泛应用于电子邮件营销、社交媒体营销、数据分析、以及客户关系管理。 详细知识点说明: 1. 库简介: node-silverpop 是专门为 Silverpop Engage API 设计的一个 Node.js 模块,它提供了一系列的接口方法供开发者使用,以便于与 Silverpop Engage 进行数据交互和操作。这使得 Node.js 应用程序能够通过简单的 API 调用来管理 Silverpop Engage 的各种功能,如发送邮件、管理联系人列表等。 2. 安装方法: 开发者可以通过 npm(Node.js 的包管理器)来安装 node-silverpop 库。在命令行中输入以下命令即可完成安装: ```javascript npm install silverpop ``` 3. 使用方法: 安装完成后,开发者需要通过 `require` 函数引入 node-silverpop 库。使用时需要配置 `options` 对象,其中 `pod` 参数指的是 API 端点,通常会有一个默认值,但也可以根据需要进行调整。 ```javascript var Silverpop = require('silverpop'); var options = { pod: 1 // API端点配置 }; var silverpop = new Silverpop(options); ``` 4. 登录认证: 在使用 Silverpop Engage API 进行任何操作之前,首先需要进行登录认证。这可以通过调用 `login` 方法来完成。登录需要提供用户名和密码,并需要一个回调函数来处理认证成功或失败后的逻辑。如果登录成功,将会返回一个 `sessionid`,这个 `sessionid` 通常用于之后的 API 调用,用以验证身份。 ```javascript silverpop.login(username, password, function(err, sessionid) { if (!err) { console.log('I am your sessionid: ' + sessionid); } }); ``` 5. 登出操作: 在结束工作或需要切断会话时,可以通过调用 `logout` 方法来进行登出操作。同样需要提供 `sessionid` 和一个回调函数处理登出结果。 ```javascript silverpop.logout(sessionid, function(err, result) { if (!err) { // 处理登出成功逻辑 } }); ``` 6. JavaScript 编程语言: JavaScript 是一种高级的、解释型的编程语言,广泛用于网页开发和服务器端的开发。node-silverpop 利用 JavaScript 的特性,允许开发者通过 Node.js 进行异步编程和处理非阻塞的 I/O 操作。这使得使用 Silverpop Engage API 的应用程序能够实现高性能的并发处理能力。 7. 开发环境与依赖管理: 使用 node-silverpop 库的开发者通常需要配置一个基于 Node.js 的开发环境。这包括安装 Node.js 运行时和 npm 包管理器。开发者还需要熟悉如何管理 Node.js 项目中的依赖项,确保所有必需的库都被正确安装和配置。 8. API 接口与调用: node-silverpop 提供了一系列的 API 接口,用于实现与 Silverpop Engage 的数据交互。开发者需要查阅官方文档以了解具体的 API 接口细节,包括参数、返回值、可能的错误代码等,从而合理调用接口,实现所需的功能。 9. 安全性和性能考虑: 在使用 node-silverpop 或任何第三方 API 库时,开发者需要考虑安全性和性能两方面的因素。安全性包括验证、授权、数据加密和防护等;而性能则涉及到请求的处理速度、并发连接的管理以及资源利用效率等问题。 10. 错误处理: 在实际应用中,开发者需要妥善处理 API 调用中可能出现的各种错误。通常,开发者会实现错误处理的逻辑,以便于在出现错误时进行日志记录、用户通知或自动重试等。 11. 实际应用示例: 在实际应用中,node-silverpop 可以用于多种场景,比如自动化的邮件营销活动管理、营销数据的导入导出、目标客户的动态分组等。开发者可以根据业务需求调用对应的 API 接口,实现对 Silverpop Engage 平台功能的自动化操作。 通过以上知识点的介绍,开发者可以了解到如何使用 node-silverpop 库来与 Silverpop Engage API 进行交互,以及在此过程中可能会遇到的各种技术和实现细节。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

C++标准库解析:虚函数在STL中的应用实例

![C++标准库解析:虚函数在STL中的应用实例](https://media.cheggcdn.com/media/9d1/9d17154a-f7b0-41e4-8d2a-6ebcf3dc6b78/php5gG4y2) # 1. C++标准库概述 C++标准库是C++语言的核心部分,它为开发者提供了一系列预制的工具和组件,以用于数据处理、内存管理、文件操作以及算法实现等常见编程任务。标准库的设计哲学强调简洁性、类型安全和性能效率。在这一章节中,我们将简要介绍C++标准库的主要内容,为之后深入探讨虚函数及其在标准模板库(STL)中的应用打下基础。 首先,C++标准库由以下几个主要部分构成:
recommend-type

mdf 格式文件是否可以调整 singal 的采样频率为 1s

MDF(Measurement Data Format)通常是指一种测量设备生成的文件格式,它包含了实验或测量过程中的信号数据。然而,MDF文件本身并不存储采样频率信息,而是存储原始样本数据。因此,如果你想把一个MDF文件中的信号采样频率调整为每秒一次,这通常是通过软件工具来完成的,例如数据分析库Pandas、Matlab或者专门的信号处理软件。 如果你已经有一个保存在MDF中的连续信号数据,你可以使用这些工具按需重采样(resample)。例如,在Python中,你可以这样做: ```python import numpy as np import pandas as pd from s
recommend-type

最小宽度网格图绘制算法研究

资源摘要信息:"最小宽度网格图绘制算法" 1. 算法定义与应用背景 最小宽度网格图绘制算法是一种图形处理算法,主要用于解决图形绘制中的特定布局问题。在计算机图形学、数据可视化、网络设计等领域,将复杂的数据关系通过图的形式表现出来是非常常见和必要的。网格图是图的一种可视化表达方式,它将节点放置在规则的网格点上,并通过边来连接不同的节点,以展示节点间的关系。最小宽度网格图绘制算法的目的在于找到一种在给定节点数目的情况下,使得图的宽度最小化的布局方法,这对于优化图形显示、提高可读性以及减少绘制空间具有重要意义。 2. 算法设计要求 算法的设计需要考虑到图的结构复杂性、节点之间的关系以及绘制效率。一个有效的网格图绘制算法需要具备以下特点: - 能够快速确定节点在网格上的位置; - 能够最小化图的宽度,优化空间利用率; - 考虑边的交叉情况,尽量减少交叉以提高图的清晰度; - 能够适应不同大小的节点和边的权重; - 具有一定的稳定性,即对图的微小变化有鲁棒性,不造成网格布局的大幅变动。 3. 算法实现技术 算法的实现可能涉及到多个计算机科学领域的技术,包括图论、优化算法、启发式搜索等。具体技术可能包括: - 图的遍历和搜索算法,如深度优先搜索(DFS)、广度优先搜索(BFS)等,用于遍历和分析图的结构; - 启发式算法,如遗传算法、模拟退火算法、蚁群算法等,用于在复杂的解空间中寻找近似最优解; - 线性规划和整数规划,可能用于数学建模和优化计算,以求解节点位置的最佳布局; - 多目标优化技术,考虑到图绘制不仅仅是一个宽度最小化问题,可能还需要考虑节点拥挤程度、边的长度等因素,因此可能需要多目标优化方法。 4. 算法评估与测试 评估算法的性能通常需要考虑算法的效率、精确度以及对不同规模和类型图的适应性。测试可能包括: - 与现有的网格图绘制算法进行对比,分析最小宽度网格图绘制算法在不同场景下的优势和劣势; - 在多种不同类型的图上测试算法,包括稀疏图、密集图、带权重的图等,以验证算法的鲁棒性和普适性; - 性能测试,包括算法的时间复杂度和空间复杂度分析,以确保算法在实际应用中的可行性。 5. 硕士论文结构 作为一篇硕士论文,"最小宽度网格图绘制算法"的结构可能会包括: - 章节一:引言,介绍研究的背景、动机、目的和研究范围; - 章节二:相关工作回顾,对目前网格图绘制算法的研究进行总结和分类; - 章节三:算法理论基础,介绍算法所依赖的理论和方法; - 章节四:最小宽度网格图绘制算法的设计与实现,详细介绍算法的构思、设计、编程实现等; - 章节五:算法评估与实验结果,展示算法测试的详细结果和性能评估; - 章节六:结论与展望,总结研究成果,讨论算法的局限性,并对未来的改进方向提出设想。 综上所述,"最小宽度网格图绘制算法"这篇硕士论文聚焦于解决图布局中的宽度优化问题,算法设计和评估涵盖了图论、优化算法等多领域知识,并且其研究结果可能对多个领域产生积极影响。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

【游戏开发中的C++多态】:角色与行为动态绑定的高级应用

![【游戏开发中的C++多态】:角色与行为动态绑定的高级应用](https://img-blog.csdnimg.cn/2907e8f949154b0ab22660f55c71f832.png) # 1. C++多态的概念与基础 ## C++中的多态基础 多态是面向对象编程(OOP)中的一项核心概念,它允许程序以统一的方式处理不同类型的对象。在C++中,多态性主要通过继承、虚函数、接口和动态绑定等技术来实现。 **继承与多态的关系** 继承是实现多态的基础之一。通过继承,派生类能够继承基类的方法和属性,并通过虚函数实现行为的差异化。子类重写父类的虚函数,使得在运行时决定调用哪个函数版本,即
recommend-type

> # 清除所有警告 > suppressWarnings(some_risky_code()) 错误于some_risky_code(): 没有"some_risky_code"这个函数

对不起,看起来你在尝试清除所有警告的过程中引用了一个不存在的函数 `some_risky_code()`。在 R 中,`suppressWarnings()` 函数确实用于抑制或忽略代码块内的警告,但它需要接收一个实际存在的 R 函数作为参数。如果 `some_risky_code()` 并不是一个内置的 R 函数,你需要首先确保它已经被定义并且存在。 如果你有一个自定义的函数 `some_risky_code()`,并且你知道它的位置和定义,那么请提供正确的函数名,并确保它是一个能产生警告的函数,比如下面的例子: ```R # 假设 some_risky_code() 是一个可能会产生警