写一个多层的神经网络代码,注释写详细
时间: 2023-12-01 15:05:46 浏览: 73
多层神经网络算法代码
5星 · 资源好评率100%
这里是一个简单的三层神经网络的代码实现,用于二分类问题。其中包含注释说明每个步骤的作用和意义。
```python
import numpy as np
class NeuralNetwork:
def __init__(self, input_size, hidden_size, output_size):
# 初始化权重矩阵
self.W1 = np.random.randn(input_size, hidden_size) * 0.01
self.b1 = np.zeros((1, hidden_size))
self.W2 = np.random.randn(hidden_size, output_size) * 0.01
self.b2 = np.zeros((1, output_size))
def forward(self, X):
# 第一层的前向传播
self.z1 = np.dot(X, self.W1) + self.b1
self.a1 = np.tanh(self.z1)
# 第二层的前向传播
self.z2 = np.dot(self.a1, self.W2) + self.b2
self.a2 = sigmoid(self.z2)
return self.a2
def backward(self, X, y, output):
# 计算输出层的误差
self.output_error = output - y
self.output_delta = np.multiply(self.output_error, sigmoid_derivative(self.a2))
# 计算隐藏层的误差
self.hidden_error = np.dot(self.output_delta, self.W2.T)
self.hidden_delta = np.multiply(self.hidden_error, tanh_derivative(self.a1))
# 更新权重矩阵和偏置项
self.W2 -= np.dot(self.a1.T, self.output_delta) * 0.1
self.b2 -= np.sum(self.output_delta, axis=0, keepdims=True) * 0.1
self.W1 -= np.dot(X.T, self.hidden_delta) * 0.1
self.b1 -= np.sum(self.hidden_delta, axis=0, keepdims=True) * 0.1
def train(self, X, y, epochs):
for i in range(epochs):
# 前向传播
output = self.forward(X)
# 反向传播
self.backward(X, y, output)
def predict(self, X):
# 前向传播,返回预测结果
return np.round(self.forward(X))
def sigmoid(x):
return 1 / (1 + np.exp(-x))
def sigmoid_derivative(x):
return np.multiply(x, 1 - x)
def tanh_derivative(x):
return 1 - np.power(x, 2)
```
解释:
1. `__init__`方法:初始化权重矩阵,其中`W1`和`W2`分别为第一层和第二层的权重矩阵,`b1`和`b2`为偏置项,都初始化为0。
2. `forward`方法:根据输入的训练数据,进行前向传播,计算输出结果。
3. `backward`方法:根据输出结果和真实标签,进行反向传播,更新权重矩阵和偏置项。
4. `train`方法:进行若干次训练迭代,每次迭代中进行一次前向传播和反向传播。
5. `predict`方法:给定测试数据,进行前向传播,返回预测结果。
6. `sigmoid`函数:sigmoid函数的实现。
7. `sigmoid_derivative`函数:sigmoid函数的导数。
8. `tanh_derivative`函数:tanh函数的导数。
阅读全文