写一段人工神经网络的代码
时间: 2023-12-01 09:53:07 浏览: 28
以下是一个简单的人工神经网络的 Python 代码示例:
```python
import numpy as np
# 定义激活函数
def sigmoid(x):
return 1 / (1 + np.exp(-x))
# 定义网络结构和权重
input_size = 2
hidden_size = 3
output_size = 1
W1 = np.random.randn(input_size, hidden_size)
W2 = np.random.randn(hidden_size, output_size)
# 定义前向传播
def forward(X):
# 计算隐藏层输出
z1 = np.dot(X, W1)
a1 = sigmoid(z1)
# 计算输出层输出
z2 = np.dot(a1, W2)
a2 = sigmoid(z2)
return a2
# 模拟输入并输出
X = np.array([0.2, 0.3])
print(forward(X))
```
这段代码实现了一个包含一个输入层、一个隐藏层和一个输出层的神经网络。其中,输入层有两个神经元,隐藏层有三个神经元,输出层有一个神经元。代码通过向前传递输入数据并对每一层进行加权求和和激活函数操作来计算输出数据。
相关问题
写一段人工神经网络代码
好的,以下是一个简单的三层全连接神经网络的 Python 代码示例:
```
import numpy as np
class NeuralNetwork:
def __init__(self, num_inputs, num_hidden, num_outputs):
self.weights1 = np.random.rand(num_inputs, num_hidden)
self.weights2 = np.random.rand(num_hidden, num_outputs)
def sigmoid(self, x):
return 1 / (1 + np.exp(-x))
def forward(self, inputs):
hidden = self.sigmoid(np.dot(inputs, self.weights1))
outputs = self.sigmoid(np.dot(hidden, self.weights2))
return outputs
# 示例用法
nn = NeuralNetwork(2, 3, 1)
inputs = np.array([0.5, 0.3])
outputs = nn.forward(inputs)
print(outputs)
```
这个神经网络有两个输入节点,三个隐藏层节点和一个输出节点。在初始化时,随机生成两个权重矩阵 `weights1` 和 `weights2`。然后,使用 `sigmoid` 函数作为激活函数,计算输入数据 `inputs` 经过两个全连接层后的输出 `outputs`。
写一段人工神经网络、反向传播的二分类代码
以下是一个简单的人工神经网络和反向传播的二分类代码,使用 Python 和 Numpy 库实现:
```python
import numpy as np
# 定义 sigmoid 函数
def sigmoid(x):
return 1 / (1 + np.exp(-x))
# 定义神经网络类
class NeuralNetwork:
def __init__(self, input_size, hidden_size, output_size):
# 初始化权重和偏置
self.weights1 = np.random.randn(input_size, hidden_size)
self.bias1 = np.zeros((1, hidden_size))
self.weights2 = np.random.randn(hidden_size, output_size)
self.bias2 = np.zeros((1, output_size))
def forward(self, X):
# 前向传播
self.z1 = np.dot(X, self.weights1) + self.bias1
self.a1 = sigmoid(self.z1)
self.z2 = np.dot(self.a1, self.weights2) + self.bias2
self.a2 = sigmoid(self.z2)
return self.a2
def backward(self, X, y, output):
# 反向传播
self.error = output - y
self.delta2 = self.error * sigmoid(self.z2) * (1 - sigmoid(self.z2))
self.delta1 = np.dot(self.delta2, self.weights2.T) * sigmoid(self.z1) * (1 - sigmoid(self.z1))
self.weights2 -= np.dot(self.a1.T, self.delta2)
self.bias2 -= np.sum(self.delta2, axis=0, keepdims=True)
self.weights1 -= np.dot(X.T, self.delta1)
self.bias1 -= np.sum(self.delta1, axis=0)
def train(self, X, y):
output = self.forward(X)
self.backward(X, y, output)
# 生成数据
X = np.array([[0, 0], [0, 1], [1, 0], [1, 1]])
y = np.array([[0], [1], [1], [0]])
# 初始化神经网络
nn = NeuralNetwork(2, 5, 1)
# 训练神经网络
for i in range(10000):
nn.train(X, y)
# 测试神经网络
print(nn.forward(X))
```
在这个代码中,我们定义了一个包含两个输入、五个隐藏节点和一个输出的神经网络。我们使用 sigmoid 函数作为激活函数,在训练过程中使用反向传播算法更新权重和偏置。最后,我们用训练好的神经网络对输入数据进行了测试。