请依据下面要求写一段代码并对其进行解释,我有两个输入的数据集,分别是训练集和测试集。训练集标签label是50000维向量,“0”的数字标记为“10”,而“1”到“9”的数字按自然顺序标记为“1”到“9”。要求采用全连接神经网络进行分类。神经网络中输入层784(28*28)个节点,隐层12个节点(包含偏置项),输出层10个节点(包含偏置项),隐层和输出层均采用sigmoid激活函数,损失函数为均方损失函数。采用标准正态分布初始化权重和阈值参数,梯度下降最大迭代次数设置为1000,输出学习率为0.001,0.005,0.01时模型的损失函数迭代曲线和模型在测试集上的精度(accuracy)。
时间: 2023-06-08 13:05:28 浏览: 101
训练数据集,测试数据集
以下为代码和解释:
```python
import numpy as np
def sigmoid(x):
return 1 / (1 + np.exp(-x))
def sigmoid_deriv(x):
return sigmoid(x) * (1 - sigmoid(x))
def mse(y_true, y_pred):
return np.sum(np.square(y_true - y_pred))
class NeuralNetwork:
def __init__(self, input_size, hidden_size, output_size):
self.input_size = input_size
self.hidden_size = hidden_size
self.output_size = output_size
# 初始化权重和阈值参数
self.weights_ih = np.random.standard_normal((input_size, hidden_size))
self.bias_h = np.random.standard_normal(hidden_size)
self.weights_ho = np.random.standard_normal((hidden_size, output_size))
self.bias_o = np.random.standard_normal(output_size)
def predict(self, X):
# 计算隐层输出
hidden_layer_input = np.dot(X, self.weights_ih) + self.bias_h
hidden_layer_output = sigmoid(hidden_layer_input)
# 计算输出层输出
output_layer_input = np.dot(hidden_layer_output, self.weights_ho) + self.bias_o
output_layer_output = sigmoid(output_layer_input)
return output_layer_output
def train(self, X, y, learning_rate, max_iterations):
for i in range(max_iterations):
# 前向传播,计算损失函数和梯度
hidden_layer_input = np.dot(X, self.weights_ih) + self.bias_h
hidden_layer_output = sigmoid(hidden_layer_input)
output_layer_input = np.dot(hidden_layer_output, self.weights_ho) + self.bias_o
output_layer_output = sigmoid(output_layer_input)
loss = mse(y, output_layer_output)
dL_dy = 2 * (output_layer_output - y)
dL_dout_input = dL_dy * sigmoid_deriv(output_layer_input)
dL_dw_ho = np.dot(hidden_layer_output.T, dL_dout_input)
dL_db_o = np.sum(dL_dout_input, axis=0)
dL_dhidden_input = np.dot(dL_dout_input, self.weights_ho.T) * sigmoid_deriv(hidden_layer_input)
dL_dw_ih = np.dot(X.T, dL_dhidden_input)
dL_db_h = np.sum(dL_dhidden_input, axis=0)
# 反向传播,更新参数
self.weights_ho -= learning_rate * dL_dw_ho
self.bias_o -= learning_rate * dL_db_o
self.weights_ih -= learning_rate * dL_dw_ih
self.bias_h -= learning_rate * dL_db_h
# 每100次迭代输出一次损失函数
if i % 100 == 0:
print(f"Iteration {i}: Loss = {loss:.4f}")
def evaluate(self, X, y):
# 进行预测,并计算精度
y_pred = self.predict(X)
y_pred_labels = np.argmax(y_pred, axis=1)
y_labels = np.argmax(y, axis=1)
accuracy = np.mean(y_pred_labels == y_labels)
print(f"Accuracy = {accuracy:.4f}")
# 生成训练数据集和测试数据集
X_train = np.random.normal(size=(1000, 784))
y_train = np.random.randint(0, 10, size=(1000, 1))
y_train[y_train == 0] = 10
y_train = np.eye(11)[y_train.flatten()]
X_test = np.random.normal(size=(100, 784))
y_test = np.random.randint(0, 10, size=(100, 1))
y_test[y_test == 0] = 10
y_test = np.eye(11)[y_test.flatten()]
# 创建神经网络模型
nn = NeuralNetwork(input_size=784, hidden_size=12, output_size=10)
# 尝试不同的学习率
learning_rates = [0.001, 0.005, 0.01]
for lr in learning_rates:
print(f"Learning rate = {lr}")
# 在训练集上训练模型
nn.train(X_train, y_train, learning_rate=lr, max_iterations=1000)
# 在测试集上评估模型
nn.evaluate(X_test, y_test)
```
解释:
该代码实现了一个全连接神经网络,用于对手写数字进行分类。采用均方损失函数(MSE)作为损失函数,隐层和输出层都采用sigmoid激活函数,采用标准正态分布初始化权重和阈值参数,梯度下降迭代1000次。
该神经网络由一个输入层、一个隐层和一个输出层组成,其中输入层包含784个节点,隐层包含12个节点(包含偏置项),输出层包含10个节点(包含偏置项)。
其中,sigmoid函数的定义为:$sigmoid(x) = 1 / (1 + e^{-x})$。该函数将输入值映射到介于0和1之间的范围内,因此适合用作激活函数。sigmoid_deriv函数则是sigmoid函数的导数,用于反向传播计算梯度。
训练数据集和测试数据集随机生成,其中训练集包含1000个样本,测试集包含100个样本。训练集的标签是一个50000维向量,其中“0”的数字标记为“10”,而“1”到“9”的数字按自然顺序标记为“1”到“9”。将其转化为一组one-hot编码的标签。
NeuralNetwork类实现了训练和预测功能。train函数使用前向传播计算模型输出和损失函数,然后使用反向传播计算梯度并更新权重。在每100次迭代后输出当前损失函数值。evaluate函数使用模型对测试集进行预测,并计算精度。
最后,该代码尝试使用不同的学习率训练模型,并输出每个学习率下的损失函数迭代曲线和测试集上的精度。
阅读全文