/tmp/ipykernel_1056/23656431.py in SGD(self, training_data, epochs, mini_batch_size, eta, test_data) 23 training_data[k:k+ mini_batch_size] 24 for k in range(0,n,mini_batch_size)] ---> 25 for mini.batch in mini_batches: 26 self.update_mini_batch(mini_batch, eta) 27 if test_data: NameError: name 'mini' is not defined
时间: 2024-02-28 15:53:37 浏览: 13
看起来你的代码中有一个笔误。在第25行,你写成了 `mini.batch` 而不是 `mini_batch`,所以 Python 不知道 `mini` 是什么。尝试将第25行改为以下代码:
```
for mini_batch in mini_batches:
```
这应该可以解决你的问题。
相关问题
from keras.optimizers import sgd_experimental和from keras.optimizers import SGD作用一致吗
不完全一致。
`from keras.optimizers import sgd_experimental` 是一个实验性的随机梯度下降(SGD)优化器,它具有一些新的特性和参数,如 "momentum\_start" 和 "nesterov\_momentum"。它是为了尝试提高模型性能而添加的。
`from keras.optimizers import SGD` 是常规的 SGD 优化器,它也有一些参数,比如 "momentum" 和 "nesterov",但没有实验性特性。
因此,如果你想使用实验性特性,你应该使用 `sgd_experimental`,否则你可以使用 `SGD`。
def SGD(self, training_data, epochs, mini_batch_size, learning_rate, lambda_, test_data): """ train_data: list of tuples, length 50000. tuple[0]: vectorized image np_array: shape(784, 1) tuple[1]: one-hot encoded label np_array: shape(10, 1) epochs: number of epochs to train. mini_batch_size: size of mini batch. learning_rate: learning rate. lambda_: regularization parameter. test_data: list of tuples, length 10000. """ l = len(training_data) test_acc_list = [] loss_list = [] for j in range(epochs): random.shuffle(training_data) cost_j = 0 mini_batches = [training_data[i:i + mini_batch_size] for i in range(0, l, mini_batch_size)] for mini_batch in mini_batches: x, y = self.merge(mini_batch) c_j = self.gradient_descent(x, y, learning_rate, lambda_) cost_j += c_j cost_j /= (l / mini_batch_size) loss_list.append(cost_j) test_acc = self.evaluate(test_data) / len(test_data) test_acc_list.append(test_acc) print('Epoch_{}: loss:{:.2f} accuracy:{:.2f}%' .format(j, cost_j, test_acc * 100)) if j > 10: if (abs(test_acc_list[j] - test_acc_list[j - 1]) <= 5e-5) \ & (abs(test_acc_list[j - 1] - test_acc_list[j - 2]) <= 5e-5): break draw_acc_loss(test_acc_list, loss_list, j + 1)
这段代码是一个使用随机梯度下降(SGD)算法进行训练的函数。函数中的lambda_参数是正则化参数,用于控制模型的复杂度。下面是函数的主要步骤:
1. 初始化一些变量,包括用于存储损失和测试准确率的列表。
2. 循环执行指定的epochs次数。
3. 在每个epoch开始之前,随机打乱训练数据。
4. 将训练数据划分成mini_batches,每个mini_batch包含指定大小的样本。
5. 对于每个mini_batch,将输入数据x和标签y合并,并使用梯度下降算法进行参数更新,计算并累计损失值cost_j。
6. 计算每个epoch的平均损失cost_j,并将其添加到损失列表中。
7. 计算测试数据的准确率,并将其添加到准确率列表中。
8. 打印当前epoch的损失和准确率。
9. 如果准确率连续两次变化小于或等于5e-5,则跳出循环。
10. 最后,绘制准确率和损失的图像。
请注意,这只是代码的一部分,缺少了一些函数或方法的实现细节,比如merge和gradient_descent函数。