我需要实现3层前馈神经网络的代码,Python
时间: 2024-04-12 08:30:23 浏览: 214
下面是一个简单的示例,展示如何使用Python实现一个三层前馈神经网络(输入层、隐藏层和输出层):
```python
import numpy as np
class NeuralNetwork:
def __init__(self, input_size, hidden_size, output_size):
self.input_size = input_size
self.hidden_size = hidden_size
self.output_size = output_size
# 初始化权重
self.weights1 = np.random.randn(self.input_size, self.hidden_size)
self.weights2 = np.random.randn(self.hidden_size, self.output_size)
# 初始化偏置项
self.bias1 = np.zeros((1, self.hidden_size))
self.bias2 = np.zeros((1, self.output_size))
def forward(self, X):
# 前向传播
self.hidden_layer = np.dot(X, self.weights1) + self.bias1
self.hidden_activation = self.sigmoid(self.hidden_layer)
self.output_layer = np.dot(self.hidden_activation, self.weights2) + self.bias2
self.output_activation = self.sigmoid(self.output_layer)
return self.output_activation
def sigmoid(self, x):
# sigmoid激活函数
return 1 / (1 + np.exp(-x))
# 使用示例
input_size = 2
hidden_size = 4
output_size = 1
# 创建神经网络对象
nn = NeuralNetwork(input_size, hidden_size, output_size)
# 输入数据
X = np.array([[0, 0], [0, 1], [1, 0], [1, 1]])
y = np.array([[0], [1], [1], [0]])
# 训练网络
for i in range(1000):
output = nn.forward(X)
# 计算损失函数
loss = np.mean((output - y) ** 2)
# 反向传播更新权重和偏置项
d_output = 2 * (output - y)
d_output_activation = d_output * nn.output_activation * (1 - nn.output_activation)
d_hidden = np.dot(d_output_activation, nn.weights2.T) * nn.hidden_activation * (1 - nn.hidden_activation)
nn.weights2 -= np.dot(nn.hidden_activation.T, d_output_activation)
nn.bias2 -= np.sum(d_output_activation, axis=0)
nn.weights1 -= np.dot(X.T, d_hidden)
nn.bias1 -= np.sum(d_hidden, axis=0)
# 测试网络
test_input = np.array([[0, 0], [0, 1], [1, 0], [1, 1]])
predicted_output = nn.forward(test_input)
print(predicted_output)
```
该示例中的神经网络包含一个输入层(2个神经元)、一个隐藏层(4个神经元)和一个输出层(1个神经元)。使用sigmoid作为激活函数,通过反向传播算法更新权重和偏置项来训练网络。最后,使用测试数据进行预测并输出结果。
请注意,这只是一个简单的示例,实际应用中可能需要根据具体情况进行调整和改进。
阅读全文