boundaries = measure.find_contours(BO_skel, 0.5, 'high', fully_connected='low', positive_orientation='low'), TypeError: find_contours() got multiple values for argument 'fully_connected'
时间: 2023-12-25 08:07:03 浏览: 145
这个错误通常是因为您在函数调用中多次指定了同一个参数。在这个例子中,您指定了两次参数 `fully_connected`。
您可以尝试使用以下代码来解决这个问题:
```
boundaries = measure.find_contours(BO_skel, 0.5, mode='high', fully_connected='low', orientation='low')
```
在这个例子中,我将 `positive_orientation` 参数改为 `orientation` 参数,并将其放在了 `mode` 参数之后,这样就不会再次指定 `fully_connected` 参数了。
相关问题
self.learning_rate = config.learning_rate self.learning_rates = [self.learning_rate, self.learning_rate * 0.5, self.learning_rate * 0.1] self.learning_rate_boundaries = [50000, 75000] self.max_iter = 10000 self.test_iter = 5000 self.disp_iter = 100 self.snapshot_iter = 5000 self.test_initialization = False self.reg_constant = 0.0 self.data_format = 'channels_first' self.network_parameters = OrderedDict(num_filters_base=config.num_filters_base, activation=config.activation, dropout_ratio=config.dropout_ratio, num_levels=config.num_levels, heatmap_initialization=True, data_format=self.data_format)
这段代码是在MainLoop类的初始化方法中设置了一些训练参数和网络参数。
- self.learning_rate:学习率,根据配置文件中的learning_rate来设置。
- self.learning_rates:学习率列表,根据self.learning_rate计算得到,包括三个值,分别为self.learning_rate、self.learning_rate * 0.5、self.learning_rate * 0.1。
- self.learning_rate_boundaries:学习率变化的边界,根据配置文件中的50000和75000来设置。
- self.max_iter:最大迭代次数,设置为10000。
- self.test_iter:测试迭代次数,设置为5000。
- self.disp_iter:显示迭代次数,每迭代100次显示一次。
- self.snapshot_iter:保存模型迭代次数,每迭代5000次保存一次模型。
- self.test_initialization:测试初始化标志,设置为False。
- self.reg_constant:正则化系数,设置为0.0。
- self.data_format:数据格式,设置为'channels_first'。
- self.network_parameters:网络参数,使用有序字典OrderedDict保存。包括num_filters_base、activation、dropout_ratio、num_levels、heatmap_initialization和data_format等参数。
这些参数和网络参数将在训练过程中使用。如果你还有其他问题,请继续提问。
请解释此段代码class GATrainer(): def __init__(self, input_A, input_B): self.program = fluid.default_main_program().clone() with fluid.program_guard(self.program): self.fake_B = build_generator_resnet_9blocks(input_A, name="g_A")#真A-假B self.fake_A = build_generator_resnet_9blocks(input_B, name="g_B")#真B-假A self.cyc_A = build_generator_resnet_9blocks(self.fake_B, "g_B")#假B-复原A self.cyc_B = build_generator_resnet_9blocks(self.fake_A, "g_A")#假A-复原B self.infer_program = self.program.clone() diff_A = fluid.layers.abs( fluid.layers.elementwise_sub( x=input_A, y=self.cyc_A)) diff_B = fluid.layers.abs( fluid.layers.elementwise_sub( x=input_B, y=self.cyc_B)) self.cyc_loss = ( fluid.layers.reduce_mean(diff_A) + fluid.layers.reduce_mean(diff_B)) * cycle_loss_factor #cycle loss self.fake_rec_B = build_gen_discriminator(self.fake_B, "d_B")#区分假B为真还是假 self.disc_loss_B = fluid.layers.reduce_mean( fluid.layers.square(self.fake_rec_B - 1))###优化生成器A2B,所以判别器结果越接近1越好 self.g_loss_A = fluid.layers.elementwise_add(self.cyc_loss, self.disc_loss_B) vars = [] for var in self.program.list_vars(): if fluid.io.is_parameter(var) and var.name.startswith("g_A"): vars.append(var.name) self.param = vars lr = 0.0002 optimizer = fluid.optimizer.Adam( learning_rate=fluid.layers.piecewise_decay( boundaries=[ 100 * step_per_epoch, 120 * step_per_epoch, 140 * step_per_epoch, 160 * step_per_epoch, 180 * step_per_epoch ], values=[ lr, lr * 0.8, lr * 0.6, lr * 0.4, lr * 0.2, lr * 0.1 ]), beta1=0.5, name="g_A") optimizer.minimize(self.g_loss_A, parameter_list=vars)
这段代码定义了一个 GATrainer 类,用于训练图像转换模型 CycleGAN 中的生成器模型 g_A。在初始化函数中,它使用 PaddlePaddle 框架的 fluid.default_main_program() 函数克隆默认的主程序,并使用 with fluid.program_guard() 语句将克隆的程序设置为默认程序。接下来,它定义了四个生成器模型:self.fake_B、self.fake_A、self.cyc_A 和 self.cyc_B。其中,self.fake_B 和 self.fake_A 分别将输入的图像 input_A 和 input_B 转换为假的图像。self.cyc_A 和 self.cyc_B 则将生成的假图像 self.fake_B 和 self.fake_A 分别还原回原始图像 input_A 和 input_B。然后,它定义了一个 inference 程序,用于测试模型。接着,它计算了循环一致性损失和生成器损失。循环一致性损失是指将生成的假图像还原为原始图像的损失。生成器损失是指通过判别器模型将生成的假图像区分为真实图像或假图像的损失。最后,它定义了一个优化器,使用 Adam 优化算法对生成器模型进行优化,以最小化生成器损失。
阅读全文