神经网络 代码
时间: 2023-07-08 15:10:53 浏览: 44
神经网络的代码实现可以使用多种编程语言,最常用的是Python。以下是一个简单的神经网络代码实现示例:
```python
import numpy as np
# 定义神经网络结构
class NeuralNetwork:
def __init__(self, input_size, hidden_size, output_size):
self.input_size = input_size
self.hidden_size = hidden_size
self.output_size = output_size
# 初始化权重和偏置
self.weights_ih = np.random.randn(self.hidden_size, self.input_size)
self.weights_ho = np.random.randn(self.output_size, self.hidden_size)
self.bias_h = np.random.randn(self.hidden_size, 1)
self.bias_o = np.random.randn(self.output_size, 1)
# 定义激活函数
def sigmoid(self, x):
return 1 / (1 + np.exp(-x))
# 前向传播
def forward(self, x):
# 计算隐藏层输出
hidden = self.sigmoid(np.dot(self.weights_ih, x) + self.bias_h)
# 计算输出层输出
output = self.sigmoid(np.dot(self.weights_ho, hidden) + self.bias_o)
return output
# 反向传播
def backward(self, x, y, output):
# 计算输出层误差
error = y - output
# 计算输出层的梯度
output_gradient = output * (1 - output) * error
# 计算隐藏层的梯度
hidden_gradient = self.sigmoid(np.dot(self.weights_ho.T, output_gradient)) * (1 - self.sigmoid(np.dot(self.weights_ih, x) + self.bias_h))
# 更新权重和偏置
self.weights_ho += np.dot(output_gradient, self.sigmoid(np.dot(self.weights_ih, x) + self.bias_h).T)
self.weights_ih += np.dot(hidden_gradient, x.T)
self.bias_o += output_gradient
self.bias_h += hidden_gradient
# 训练神经网络
def train(self, x, y, epochs):
for i in range(epochs):
output = self.forward(x)
self.backward(x, y, output)
```
以上代码实现了一个简单的三层神经网络,包括输入层、隐藏层和输出层。其中,`forward` 函数实现了前向传播,`backward` 函数实现了反向传播,`train` 函数用于训练神经网络。在实际应用中,还需要对数据进行预处理、划分训练集和测试集等操作。