%----输出loss损失 c_loss(i,:) = sigmoid_cross_entropy(logits(1:batch_size), ones(batch_size,1));%这是生成器的损失 d_loss (i,:)= sigmoid_cross_entropy(logits, labels);%判别器的损失 % fprintf('c_loss:"%f", d_loss:"%f\n"', c_loss, d_loss); % if corr2(images_fake,images_real)>0.6 % break; % end
时间: 2024-04-26 21:22:25 浏览: 115
TensorFlow tf.nn.softmax_cross_entropy_with_logits的用法
5星 · 资源好评率100%
你想问的是关于代码中输出损失的部分,对吧?这段代码中,用到了 sigmoid_cross_entropy 函数计算生成器和判别器的损失,并将结果分别存储在 c_loss 和 d_loss 中。最后使用 fprintf 函数输出损失值。如果你希望在代码中输出更详细的信息,可以使用 disp 函数显示变量的值。同时,你在代码中也使用了一个判断语句,当生成器生成的图像与真实图像的相关系数超过了0.6时,就跳出循环。
阅读全文