Mini batch accuracy 是什么意思
时间: 2023-10-27 20:06:33 浏览: 30
Mini-batch accuracy是指在深度学习训练过程中,对于一个小批量的数据样本集,模型预测正确的样本数占总样本数的比例。通常来说,mini-batch accuracy会随着模型训练的进展而逐渐提高,最终达到整个数据集的准确率。在训练过程中,监控mini-batch accuracy可以帮助我们了解模型的训练效果,以及是否需要调整模型的超参数或者网络结构等。
相关问题
iaa = 0; for ip = 1:max_iteration pos = randi(ntrain-mini_batch_size); x = x_train(:,pos+1:pos+mini_batch_size); y = y_train(:,pos+1:pos+mini_batch_size); %正向计算 a{1} = x; [a,z]=feedforward(@acti_relu,@acti_sigmoid,weight,bias,nlayer,mini_batch_size,a,z); [weight,bias] = SGD(@acti_relu_prime,@acti_sigmoid_prime,weight,bias,... nabla_weight,nabla_bias,nlayer,mini_batch_size,eta,a,z,y,lambda,ntrain); if mod(ip,rstep) == 0 iaa = iaa+1; accuracy(iaa) = evaluatemnist(@acti_relu,@acti_sigmoid,x_valid,y_valid,weight,bias,nlayer); plot(accuracy); title(['Accuracy:',num2str(accuracy(iaa))]); getframe; end end
这段代码是神经网络的训练过程,其中:
- iaa是记录准确率的数量,初始化为0;
- for循环进行max_iteration次迭代;
- pos是随机生成的样本起始位置,用于每次迭代中从训练集中随机选择mini_batch_size个样本;
- x和y分别是输入和输出样本,从训练集中选择;
- a{1}被初始化为x,然后通过神经网络的前向传播算法计算出每一层的激活值a和加权输入值z;
- 通过神经网络的反向传播算法,计算出每一层的权重和偏置项的梯度信息,并使用随机梯度下降算法更新权重和偏置项;
- 如果当前迭代次数是rstep的倍数,则记录当前的准确率,同时绘制准确率图像,并将准确率存入accuracy向量中。
def SGD(self, training_data, epochs, mini_batch_size, learning_rate, lambda_, test_data): """ train_data: list of tuples, length 50000. tuple[0]: vectorized image np_array: shape(784, 1) tuple[1]: one-hot encoded label np_array: shape(10, 1) epochs: number of epochs to train. mini_batch_size: size of mini batch. learning_rate: learning rate. lambda_: regularization parameter. test_data: list of tuples, length 10000. """ l = len(training_data) test_acc_list = [] loss_list = [] for j in range(epochs): random.shuffle(training_data) cost_j = 0 mini_batches = [training_data[i:i + mini_batch_size] for i in range(0, l, mini_batch_size)] for mini_batch in mini_batches: x, y = self.merge(mini_batch) c_j = self.gradient_descent(x, y, learning_rate, lambda_) cost_j += c_j cost_j /= (l / mini_batch_size) loss_list.append(cost_j) test_acc = self.evaluate(test_data) / len(test_data) test_acc_list.append(test_acc) print('Epoch_{}: loss:{:.2f} accuracy:{:.2f}%' .format(j, cost_j, test_acc * 100)) if j > 10: if (abs(test_acc_list[j] - test_acc_list[j - 1]) <= 5e-5) \ & (abs(test_acc_list[j - 1] - test_acc_list[j - 2]) <= 5e-5): break draw_acc_loss(test_acc_list, loss_list, j + 1)
这段代码是一个使用随机梯度下降(SGD)算法进行训练的函数。函数中的lambda_参数是正则化参数,用于控制模型的复杂度。下面是函数的主要步骤:
1. 初始化一些变量,包括用于存储损失和测试准确率的列表。
2. 循环执行指定的epochs次数。
3. 在每个epoch开始之前,随机打乱训练数据。
4. 将训练数据划分成mini_batches,每个mini_batch包含指定大小的样本。
5. 对于每个mini_batch,将输入数据x和标签y合并,并使用梯度下降算法进行参数更新,计算并累计损失值cost_j。
6. 计算每个epoch的平均损失cost_j,并将其添加到损失列表中。
7. 计算测试数据的准确率,并将其添加到准确率列表中。
8. 打印当前epoch的损失和准确率。
9. 如果准确率连续两次变化小于或等于5e-5,则跳出循环。
10. 最后,绘制准确率和损失的图像。
请注意,这只是代码的一部分,缺少了一些函数或方法的实现细节,比如merge和gradient_descent函数。