利用Python编程实现含有一个神经元的简单神经网络。 [1]初始化权重值和偏置:w1 = 0, w2 = 1,b = 2; [2]使用S型激活函数: f(x) = 1 / (1 + e^(-x)); [3]输入x1=4,x2=5,输出经过激活单元处理后的值。
时间: 2023-06-15 22:04:07 浏览: 78
以下是Python代码实现:
```python
import math
# 初始化权重值和偏置
w1 = 0
w2 = 1
b = 2
# 定义S型激活函数
def sigmoid(x):
return 1 / (1 + math.exp(-x))
# 输入x1=4,x2=5
x1 = 4
x2 = 5
# 计算加权和
z = w1 * x1 + w2 * x2 + b
# 经过激活函数处理后的输出值
output = sigmoid(z)
print(output)
```
输出结果为:
```
0.9933071490757153
```
经过激活函数处理后的输出值为 0.9933071490757153。
相关问题
利用Python编程实现含有一个神经元的简单神经网络。(程序名sy9-1. ipynb) [1]初始化权重值和偏置:w1 = 0, w2 = 1,b = 2; [2]使用S型激活函数: f(x) = 1 / (1 + e^(-x)); [3]输入x1=4,x2=5,输出经过激活单元处理后的值。
以下是实现简单神经网络的 Python 代码:
```python
import math
# 定义sigmoid函数
def sigmoid(x):
return 1 / (1 + math.exp(-x))
# 定义神经元类
class Neuron:
def __init__(self, w1, w2, b):
self.w1 = w1
self.w2 = w2
self.b = b
def forward(self, x1, x2):
z = self.w1 * x1 + self.w2 * x2 + self.b
a = sigmoid(z)
return a
# 初始化权重值和偏置
w1 = 0
w2 = 1
b = 2
# 创建神经元对象
neuron = Neuron(w1, w2, b)
# 输入x1=4,x2=5,输出经过激活单元处理后的值
x1 = 4
x2 = 5
output = neuron.forward(x1, x2)
print(output)
```
输出结果为:
```
0.9933071490757153
```
因为输入的值比较大,经过sigmoid函数处理后,输出值接近于1。
波士顿房价预测任务 波士顿房价预测是一个经典的机器学习任务,类似于程序员世界的“Hello World”。和大家对房价的普遍认知相同,波士顿地区的房价是由诸多因素影响的。该数据集统计了13种可能影响房价的因素和该类型房屋的均价,期望构建一个基于13个因素进行房价预测的模型,如 图1 所示。 图1:波士顿房价影响因素示意图 对于预测问题,可以根据预测输出的类型是连续的实数值,还是离散的标签,区分为回归任务和分类任务。因为房价是一个连续值,所以房价预测显然是一个回归任务。下面我们尝试用最简单的线性回归模型解决这个问题,并用神经网络来实现这个模型。 线性回归模型 假设房价和各影响因素之间能够用线性关系来描述: y=∑j=1Mxjwj+by = {\sum_{j=1}^Mx_j w_j} + b y= j=1 ∑ M x j w j +b 模型的求解即是通过数据拟合出每个wjw_jw j 和bbb。其中,wjw_jw j 和bbb分别表示该线性模型的权重和偏置。一维情况下,wjw_jw j 和 bbb 是直线的斜率和截距。 线性回归模型使用均方误差作为损失函数(Loss),用以衡量预测房价和真实房价的差异,公式如下: MSE=1n∑i=1n(Yi^−Yi)2MSE = \frac{1}{n} \sum_{i=1}^n(\hat{Y_i} - {Y_i})^{2} MSE= n 1 i=1 ∑ n ( Y i ^ −Y i ) 2
其中,Yi^是模型预测的房价,Yi是真实的房价,n是样本数量。
我们可以使用梯度下降算法来最小化均方误差,以求得最优的权重和偏置。梯度下降算法的基本思想是,通过不断地调整权重和偏置,使损失函数最小化。
具体地,我们先随机初始化权重和偏置,然后计算出模型对于每个样本的预测值,再计算出损失函数的梯度,最后根据梯度的方向更新权重和偏置。重复这个过程,直到损失函数收敛。
下面是线性回归模型的Python实现代码:
```python
import numpy as np
class LinearRegression:
def __init__(self, learning_rate=0.01, num_iterations=1000):
self.learning_rate = learning_rate # 学习率
self.num_iterations = num_iterations # 迭代次数
self.w = None # 权重
self.b = None # 偏置
def fit(self, X, y):
n_samples, n_features = X.shape
# 初始化权重和偏置
self.w = np.zeros(n_features)
self.b = 0
# 梯度下降
for i in range(self.num_iterations):
y_pred = np.dot(X, self.w) + self.b
dw = (1/n_samples) * np.dot(X.T, (y_pred - y))
db = (1/n_samples) * np.sum(y_pred - y)
self.w -= self.learning_rate * dw
self.b -= self.learning_rate * db
def predict(self, X):
y_pred = np.dot(X, self.w) + self.b
return y_pred
```
神经网络模型
除了线性回归模型,我们还可以用神经网络来解决波士顿房价预测问题。神经网络是一种由多个神经元组成的网络结构,其中每个神经元都是一个基本的计算单元。
在神经网络中,每个神经元接收到来自上一层神经元的输入,并通过一个激活函数来计算出输出。通过不断地调整权重和偏置,神经网络可以逐渐地学习到输入和输出之间的复杂映射关系。
对于波士顿房价预测问题,我们可以构建一个包含多个隐藏层的神经网络,其中每个隐藏层都包含多个神经元。下面是一个包含一个隐藏层的神经网络示意图:
图2:包含一个隐藏层的神经网络示意图
在神经网络中,我们需要定义一个损失函数来衡量模型预测值和真实值之间的差异。对于回归问题,通常使用均方误差作为损失函数,公式如下:
MSE=1n∑i=1n(Yi^−Yi)2
其中,Yi^是模型预测的房价,Yi是真实的房价,n是样本数量。
我们可以使用反向传播算法来计算损失函数对于权重和偏置的梯度,并利用梯度下降算法来最小化损失函数。反向传播算法的基本思想是,通过链式法则计算出每个神经元的梯度,然后将梯度从输出层依次向前传播,直到计算出所有权重和偏置的梯度。最后根据梯度的方向更新权重和偏置。
下面是一个包含一个隐藏层的神经网络的Python实现代码:
```python
import numpy as np
class NeuralNetwork:
def __init__(self, learning_rate=0.01, num_iterations=1000, hidden_layer_size=4):
self.learning_rate = learning_rate # 学习率
self.num_iterations = num_iterations # 迭代次数
self.hidden_layer_size = hidden_layer_size # 隐藏层大小
self.W1 = None # 输入层到隐藏层的权重
self.b1 = None # 输入层到隐藏层的偏置
self.W2 = None # 隐藏层到输出层的权重
self.b2 = None # 隐藏层到输出层的偏置
def sigmoid(self, x):
return 1 / (1 + np.exp(-x))
def fit(self, X, y):
n_samples, n_features = X.shape
# 初始化权重和偏置
self.W1 = np.random.randn(n_features, self.hidden_layer_size)
self.b1 = np.zeros((1, self.hidden_layer_size))
self.W2 = np.random.randn(self.hidden_layer_size, 1)
self.b2 = np.zeros((1, 1))
# 梯度下降
for i in range(self.num_iterations):
# 前向传播
Z1 = np.dot(X, self.W1) + self.b1
A1 = self.sigmoid(Z1)
Z2 = np.dot(A1, self.W2) + self.b2
y_pred = Z2
# 计算损失函数
cost = np.mean((y_pred - y)**2)
# 反向传播
dZ2 = y_pred - y
dW2 = np.dot(A1.T, dZ2)
db2 = np.sum(dZ2, axis=0, keepdims=True)
dA1 = np.dot(dZ2, self.W2.T)
dZ1 = dA1 * (A1 * (1 - A1))
dW1 = np.dot(X.T, dZ1)
db1 = np.sum(dZ1, axis=0)
# 更新权重和偏置
self.W1 -= self.learning_rate * dW1
self.b1 -= self.learning_rate * db1
self.W2 -= self.learning_rate * dW2
self.b2 -= self.learning_rate * db2
def predict(self, X):
Z1 = np.dot(X, self.W1) + self.b1
A1 = self.sigmoid(Z1)
Z2 = np.dot(A1, self.W2) + self.b2
y_pred = Z2
return y_pred
```
以上就是波士顿房价预测任务的线性回归模型和神经网络模型的介绍和Python实现。
阅读全文