linear_model = LinearRegression() linear_model.fit(X_train, y_train) coef = linear_model.coef_#回归系数 line_pre = linear_model.predict(X_test) print('SCORE:{:.4f}'.format(linear_model.score(X_test, y_test))) print('RMSE:{:.4f}'.format(np.sqrt(mean_squared_error(y_test, line_pre))))
时间: 2023-04-05 15:04:55 浏览: 74
linear_model = LinearRegression() 表示创建一个线性回归模型。
linear_model.fit(X_train, y_train) 表示用训练数据 X_train 和 y_train 训练模型。
coef = linear_model.coef_ 表示获取模型的系数。
相关问题
import sklearn.linear_model as skl lr=skl.LinearRegression() lr.fit(x_train, y_train) y_predict_train=lr.predict(x_train) c_c=lr.predict(x_train)-np.dot(x_train,lr.coef_) C=c_c[0]*1 print('coef_',max(abs(C-c_c))) w=lr.coef_ b=C print('w=',w,'b=',b)
这段代码是使用 sklearn 库中的 LinearRegression 模型进行线性回归分析,其中 x_train 和 y_train 分别是训练数据的特征和标签,lr.fit() 函数用于拟合模型,lr.predict() 函数用于预测训练数据的标签,c_c 是预测值与实际值的差值,C 是 c_c 中的第一个元素乘以 1,w 是模型的系数,b 是截距。最后输出了 w 和 b 的值以及预测误差的最大值。
from sklearn.linear_model import LinearRegression Ir = LinearRegression() Ir.fit(X_train[features_without_ones], y_train) print(Ir.coef_) w_Ir = [] w_Ir.extend(Ir.coef_) w_Ir.append(Ir.intercept_) w1['Ir_sklearn_w']=w_Ir w1.round(decimals=2)
这段代码是使用Scikit-Learn库中的LinearRegression类来训练一个线性回归模型。首先,通过调用`LinearRegression()`创建了一个LinearRegression对象,并将其赋值给变量`Ir`。接着,通过调用该对象的`fit()`方法,将训练数据集`X_train`和目标变量`y_train`传递给模型进行训练。
在训练完成后,通过调用`Ir.coef_`属性获取线性回归模型的系数向量。这个系数向量包含了每个特征对应的系数值。将这些系数值添加到一个列表变量`w_Ir`中,并在最后添加截距项,即模型的截距参数。最后,将这个系数向量保存到字典变量`w1`中,以便后续使用。
在调用`round()`方法时,可能是为了将系数向量中的小数精度控制在两位小数以内。