用Python写一个用BP算法实现分类的代码,其中隐藏层的激励函数采用tanh函数,输出层的激励函数采用sigmoid函数,目标函数采用平方误差函数,待分类数据由用户输入
时间: 2024-02-15 18:02:50 浏览: 69
用python编写bp算法
5星 · 资源好评率100%
好的,下面是一个简单的用Python实现BP算法分类的代码,其中隐藏层的激励函数采用tanh函数,输出层的激励函数采用sigmoid函数,目标函数采用平方误差函数,待分类数据由用户输入:
```python
import numpy as np
# 定义神经网络结构
class NeuralNetwork:
def __init__(self, input_size, hidden_size, output_size):
self.input_size = input_size
self.hidden_size = hidden_size
self.output_size = output_size
# 初始化权重和偏置
self.W1 = np.random.randn(self.input_size, self.hidden_size)
self.b1 = np.zeros((1, self.hidden_size))
self.W2 = np.random.randn(self.hidden_size, self.output_size)
self.b2 = np.zeros((1, self.output_size))
# 定义tanh激活函数
def tanh(self, x):
return np.tanh(x)
# 定义sigmoid激活函数
def sigmoid(self, x):
return 1 / (1 + np.exp(-x))
# 前向传播
def forward(self, X):
self.z1 = np.dot(X, self.W1) + self.b1
self.a1 = self.tanh(self.z1)
self.z2 = np.dot(self.a1, self.W2) + self.b2
self.a2 = self.sigmoid(self.z2)
return self.a2
# 计算平方误差函数
def loss(self, Y, Y_hat):
return np.sum((Y - Y_hat) ** 2)
# 反向传播
def backward(self, X, Y, Y_hat, learning_rate):
delta2 = (Y_hat - Y) * self.a2 * (1 - self.a2)
dW2 = np.dot(self.a1.T, delta2)
db2 = np.sum(delta2, axis=0, keepdims=True)
delta1 = np.dot(delta2, self.W2.T) * (1 - self.a1 ** 2)
dW1 = np.dot(X.T, delta1)
db1 = np.sum(delta1, axis=0)
# 更新权重和偏置
self.W2 -= learning_rate * dW2
self.b2 -= learning_rate * db2
self.W1 -= learning_rate * dW1
self.b1 -= learning_rate * db1
# 训练神经网络
def train(self, X, Y, learning_rate, epochs):
for i in range(epochs):
Y_hat = self.forward(X)
loss = self.loss(Y, Y_hat)
self.backward(X, Y, Y_hat, learning_rate)
if i % 100 == 0:
print("Epochs:", i, "Loss:", loss)
# 预测新数据
def predict(self, X):
Y_hat = self.forward(X)
return np.round(Y_hat)
# 获取数据
X = np.array([[0, 0], [0, 1], [1, 0], [1, 1]])
Y = np.array([[0], [1], [1], [0]])
# 创建神经网络
nn = NeuralNetwork(2, 3, 1)
# 训练神经网络
nn.train(X, Y, 0.1, 1000)
# 预测新数据
while True:
try:
x1 = float(input("请输入第一个特征值:"))
x2 = float(input("请输入第二个特征值:"))
X_new = np.array([[x1, x2]])
Y_pred = nn.predict(X_new)
print("预测结果为:", Y_pred)
except:
print("程序终止!")
break
```
这段代码实现了一个2-3-1的神经网络,其中输入层有2个神经元,隐藏层有3个神经元,输出层有1个神经元。你可以根据自己的需求修改输入数据的维度、神经网络的结构和超参数等。
阅读全文