随机生成三类数据,每类20个样本,样本为二维向量,不使用sklearn的条件下构建BP神经网络进行分类
时间: 2024-02-22 12:58:44 浏览: 136
好的,我可以帮你解决这个问题。以下是不依赖于`sklearn`库的完整Python代码:
```python
import numpy as np
import matplotlib.pyplot as plt
# 定义sigmoid函数以及其导数
def sigmoid(x):
return 1 / (1 + np.exp(-x))
def sigmoid_derivative(x):
return x * (1 - x)
# 随机生成三类数据,每类20个样本,样本为二维向量
np.random.seed(0)
n_samples = 20
X1 = np.random.randn(n_samples, 2) + np.array([0, 0])
X2 = np.random.randn(n_samples, 2) + np.array([2, 2])
X3 = np.random.randn(n_samples, 2) + np.array([-2, 2])
X = np.vstack((X1, X2, X3))
y = np.array([0] * n_samples + [1] * n_samples + [2] * n_samples)
# 构建BP神经网络进行分类
n_input = 2
n_hidden = 5
n_output = 3
learning_rate = 0.1
n_iterations = 10000
# 随机初始化权重
W1 = np.random.randn(n_input, n_hidden)
W2 = np.random.randn(n_hidden, n_output)
# 开始训练
for i in range(n_iterations):
# 正向传播
hidden_input = np.dot(X, W1)
hidden_output = sigmoid(hidden_input)
output_input = np.dot(hidden_output, W2)
output_output = sigmoid(output_input)
# 反向传播
output_error = y.reshape(-1, 1) - output_output
output_delta = output_error * sigmoid_derivative(output_output)
hidden_error = np.dot(output_delta, W2.T)
hidden_delta = hidden_error * sigmoid_derivative(hidden_output)
# 更新权重
W2 += learning_rate * np.dot(hidden_output.T, output_delta)
W1 += learning_rate * np.dot(X.T, hidden_delta)
# 可视化分类结果
xx, yy = np.meshgrid(np.linspace(-4, 4, 200), np.linspace(-4, 4, 200))
Z = np.zeros((xx.size, 3))
hidden = sigmoid(np.dot(np.c_[xx.ravel(), yy.ravel()], W1))
output = sigmoid(np.dot(hidden, W2))
Z[:, 0] = output[:, 0]
Z[:, 1] = output[:, 1]
Z[:, 2] = output[:, 2]
Z = np.argmax(Z, axis=1)
Z = Z.reshape(xx.shape)
plt.contourf(xx, yy, Z, cmap=plt.cm.Accent, alpha=0.8)
plt.scatter(X[:, 0], X[:, 1], c=y, cmap=plt.cm.Accent)
plt.xlim(-4, 4)
plt.ylim(-4, 4)
plt.show()
```
在这个例子中,我们定义了一个名为`sigmoid`的函数,它实现了sigmoid函数(用于激活神经元),并定义了一个名为`sigmoid_derivative`的函数,它计算sigmoid函数的导数(用于反向传播)。
我们随机生成三类数据,每类20个样本,样本为二维向量。然后,我们将它们合并成一个数据集`X`,并为每个样本打上标签`y`。
接下来,我们定义了神经网络的架构。在这个例子中,我们使用一个包含一个隐层的神经网络进行分类,输入层有2个神经元,隐层有5个神经元,输出层有3个神经元(对应三个类别)。我们还定义了学习率、迭代次数等超参数。
接着,我们随机初始化权重,然后开始训练。在每个迭代中,我们执行正向传播,计算损失函数,然后执行反向传播来更新权重。最后,我们使用可视化函数将分类结果可视化。
运行这段代码,你将得到一个可视化的分类结果。
阅读全文