用 pycharm 写一个三输入一输出的 BP 神经网络
时间: 2023-07-18 09:28:01 浏览: 96
好的,以下是一个使用 PyCharm 编写的三输入一输出的 BP 神经网络的代码示例:
```python
import numpy as np
class NeuralNetwork:
def __init__(self):
# 设置输入层、隐藏层和输出层的神经元数量
self.input_neurons = 3
self.hidden_neurons = 4
self.output_neurons = 1
# 初始化权重和偏差
self.weights1 = np.random.randn(self.input_neurons, self.hidden_neurons)
self.bias1 = np.zeros((1, self.hidden_neurons))
self.weights2 = np.random.randn(self.hidden_neurons, self.output_neurons)
self.bias2 = np.zeros((1, self.output_neurons))
def sigmoid(self, x):
# sigmoid 函数
return 1 / (1 + np.exp(-x))
def sigmoid_derivative(self, x):
# sigmoid 函数的导数
return x * (1 - x)
def forward(self, X):
# 前向传播
self.hidden_layer = self.sigmoid(np.dot(X, self.weights1) + self.bias1)
self.output_layer = self.sigmoid(np.dot(self.hidden_layer, self.weights2) + self.bias2)
return self.output_layer
def backward(self, X, y, output):
# 反向传播
self.output_error = y - output
self.output_delta = self.output_error * self.sigmoid_derivative(output)
self.hidden_error = np.dot(self.output_delta, self.weights2.T)
self.hidden_delta = self.hidden_error * self.sigmoid_derivative(self.hidden_layer)
self.weights1 += np.dot(X.T, self.hidden_delta)
self.bias1 += np.sum(self.hidden_delta, axis=0, keepdims=True)
self.weights2 += np.dot(self.hidden_layer.T, self.output_delta)
self.bias2 += np.sum(self.output_delta, axis=0, keepdims=True)
def train(self, X, y, epochs):
# 训练神经网络
for i in range(epochs):
output = self.forward(X)
self.backward(X, y, output)
def predict(self, X):
# 预测输出
return self.forward(X)
# 测试代码
X = np.array([[0, 0, 1], [0, 1, 1], [1, 0, 1], [1, 1, 1]])
y = np.array([[0], [1], [1], [0]])
nn = NeuralNetwork()
nn.train(X, y, epochs=10000)
print("预测结果:")
print(nn.predict(X))
```
在这个示例中,我们使用了 numpy 库来进行矩阵运算。我们首先定义了神经网络类,其中包括了初始化权重和偏差、sigmoid 函数及其导数、前向传播和反向传播函数、训练函数和预测函数。然后,我们使用一个包含四个样本的输入矩阵 X 和相应的输出矩阵 y 来训练神经网络,并输出预测结果。您可以根据自己的需求修改输入、隐藏和输出层的神经元数量,以及训练次数等参数。
阅读全文