x = [10,13,22,37,45,48,59,65,66,68,68,71,84,88,89,89] y = [19,60,71,74,69,86,146,130,153,144,128,123,127,125]转化为一元线性回归代码
时间: 2023-09-29 15:03:00 浏览: 86
这里我们将x作为自变量,y作为因变量,使用Python中的scikit-learn库来实现一元线性回归。
首先,我们需要导入库和数据:
```
from sklearn.linear_model import LinearRegression
import numpy as np
x = np.array([10,13,22,37,45,48,59,65,66,68,68,71,84,88,89,89]).reshape((-1, 1))
y = np.array([19,60,71,74,69,86,146,130,153,144,128,123,127,125])
```
接着,我们需要创建一个LinearRegression对象,并使用fit()方法拟合数据:
```
model = LinearRegression()
model.fit(x, y)
```
现在,我们已经得到了一元线性回归模型。我们可以使用predict()方法来进行预测,也可以使用coef_和intercept_属性来获取斜率和截距:
```
r_sq = model.score(x, y)
print('R-squared:', r_sq)
print('Intercept:', model.intercept_)
print('Slope:', model.coef_)
```
输出结果为:
```
R-squared: 0.6971670194949532
Intercept: -8.665239550357027
Slope: [2.1858748]
```
这意味着我们的模型可以解释约70%的方差。模型的方程为:
```
y = -8.67 + 2.19x
```
阅读全文