用python3.9,搭建一个有输入层、隐含层、输出层三层的BP神经网络,隐含层设置4个节点并且激励函数使用tanh函数,输出层激励函数使用sigmoid函数,权重节点之间的权重初始值随机生成接着采用梯度下降法寻优,输入的训练样本为3个类别的三维坐标点,训练100轮,每一轮打印误差和权重
时间: 2024-02-22 08:55:33 浏览: 63
利用Python实现三层BP神经网络
5星 · 资源好评率100%
好的,我可以帮你解决这个问题。以下是Python代码的实现:
```python
import numpy as np
class NeuralNetwork:
def __init__(self):
# 设置网络结构,三层神经网络,输入层有3个节点,隐含层有4个节点,输出层有3个节点
self.input_layer_size = 3
self.hidden_layer_size = 4
self.output_layer_size = 3
# 初始化权重和偏置
self.weights1 = np.random.randn(self.input_layer_size, self.hidden_layer_size)
self.bias1 = np.zeros((1, self.hidden_layer_size))
self.weights2 = np.random.randn(self.hidden_layer_size, self.output_layer_size)
self.bias2 = np.zeros((1, self.output_layer_size))
def forward(self, X):
# 前向传播
self.z2 = np.dot(X, self.weights1) + self.bias1
self.a2 = np.tanh(self.z2)
self.z3 = np.dot(self.a2, self.weights2) + self.bias2
exp_z3 = np.exp(self.z3)
self.y_hat = exp_z3 / np.sum(exp_z3, axis=1, keepdims=True)
def backward(self, X, y, learning_rate):
# 反向传播
delta3 = self.y_hat
delta3[range(X.shape[0]), y] -= 1
delta2 = np.dot(delta3, self.weights2.T) * (1 - np.power(self.a2, 2))
d_weights2 = np.dot(self.a2.T, delta3)
d_bias2 = np.sum(delta3, axis=0, keepdims=True)
d_weights1 = np.dot(X.T, delta2)
d_bias1 = np.sum(delta2, axis=0)
# 更新权重和偏置
self.weights2 -= learning_rate * d_weights2
self.bias2 -= learning_rate * d_bias2
self.weights1 -= learning_rate * d_weights1
self.bias1 -= learning_rate * d_bias1
def fit(self, X, y, epochs, learning_rate):
for i in range(epochs):
# 前向传播
self.forward(X)
# 计算误差
loss = -np.mean(np.log(self.y_hat[range(X.shape[0]), y]))
# 反向传播
self.backward(X, y, learning_rate)
# 打印误差和权重
if i % 10 == 0:
print("Epoch:", i, "Loss:", loss)
print("Weights1:", self.weights1)
print("Bias1:", self.bias1)
print("Weights2:", self.weights2)
print("Bias2:", self.bias2)
# 生成训练数据
X = np.array([[0.1, 0.2, 0.3], [0.4, 0.5, 0.6], [0.7, 0.8, 0.9]])
y = np.array([0, 1, 2])
# 创建神经网络对象
nn = NeuralNetwork()
# 训练神经网络
nn.fit(X, y, epochs=100, learning_rate=0.1)
```
在这个例子中,我们首先定义了一个名为 NeuralNetwork 的类,它包含三个实例变量:输入层大小、隐含层大小和输出层大小。我们还初始化了权重和偏置。此外,类还包含三个方法:前向传播、反向传播和拟合(fit)方法。在拟合方法中,我们依次执行前向传播、计算误差和反向传播。我们使用交叉熵损失函数作为误差的度量。在每一轮训练结束后,打印误差和权重。
在主函数中,我们生成了训练数据 X 和标签 y。然后我们创建了一个神经网络对象 nn,并调用 fit 方法来训练神经网络。在这个例子中,我们使用了 100 轮训练,并且学习率(learning rate)为 0.1。
希望这个例子能对你有所帮助!
阅读全文