贝叶斯一元线性回归和经典一元线性回归的代码
时间: 2024-05-20 21:08:43 浏览: 98
贝叶斯一元线性回归和经典一元线性回归都是用于建立一个自变量与因变量之间的关系模型的方法。它们的区别在于对模型参数的估计方式不同。经典一元线性回归是通过最小二乘法来估计模型参数,而贝叶斯一元线性回归则是基于贝叶斯定理,利用先验分布和数据集来计算后验分布并进行参数估计。
以下是一个经典一元线性回归的Python代码示例:
```
import numpy as np
import matplotlib.pyplot as plt
# 构造数据集
x = np.array([1, 2, 3, 4, 5])
y = np.array([2.3, 4.5, 6.7, 8.9, 11.1])
# 计算模型参数
n = len(x)
sum_x = np.sum(x)
sum_y = np.sum(y)
sum_xy = np.sum(x * y)
sum_x_square = np.sum(x ** 2)
a = (n * sum_xy - sum_x * sum_y) / (n * sum_x_square - sum_x ** 2)
b = (sum_y - a * sum_x) / n
# 绘制数据散点图和拟合曲线
plt.scatter(x, y)
plt.plot(x, a * x + b, color='r')
plt.show()
```
以下是一个贝叶斯一元线性回归的Python代码示例:
```
import numpy as np
import matplotlib.pyplot as plt
from scipy.stats import norm
# 构造数据集
x = np.array([1, 2, 3, 4, 5])
y = np.array([2.3, 4.5, 6.7, 8.9, 11.1])
# 定义先验分布的参数
m0 = 0
s0 = 1
a0 = 1
b0 = 1
# 计算后验分布的参数
n = len(x)
sum_x = np.sum(x)
sum_y = np.sum(y)
sum_xy = np.sum(x * y)
sum_x_square = np.sum(x ** 2)
S = s0 + sum_x_square - (sum_x ** 2) / n
M = (a0 * b0 + sum_xy - a0 * sum_x * sum_y / n) / S
A = a0 + n / 2
B = b0 + s0 / 2 + (sum_y ** 2 + M ** 2 * S - 2 * M * sum_y * sum_x + sum_x_square * S) / 2
# 绘制数据散点图和拟合曲线
plt.scatter(x, y)
# 绘制后验分布的曲线
x_range = np.linspace(0, 6, 100)
y_range = norm.pdf(x_range, loc=M, scale=np.sqrt(S/A))
plt.plot(x_range, y_range, color='g')
plt.show()
```
阅读全文