机器学习线性回归单变量线性回归代码
时间: 2024-09-29 10:16:15 浏览: 16
单变量线性回归是一种基本的机器学习模型,它预测因变量与一个自变量之间的线性关系。以下是使用Python的scikit-learn库实现单变量线性回归的一个简单例子:
```python
# 导入所需的库
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression
import numpy as np
# 假设我们有一个数据集df,其中包含特征'X'和目标变量'y'
X = df['X'].values.reshape(-1, 1) # 将列转换为二维数组
y = df['y'].values.reshape(-1, 1)
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 创建并训练模型
model = LinearRegression()
model.fit(X_train, y_train)
# 预测
y_pred = model.predict(X_test)
# 输出模型系数和截距
print("模型参数: 直线斜率 (coef): ", model.coef_, "截距 (intercept): ", model.intercept_)
相关问题
机器学习线性回归训练样本代码
在Python中,我们可以使用scikit-learn库来实现线性回归的训练。以下是一个简单的例子,假设我们有一个二维数据集,我们要预测目标变量`y`基于特征`X`:
```python
# 导入所需的库
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression
import numpy as np
# 创建模拟数据 (假设有一个输入矩阵X和对应的输出向量y)
X = np.random.rand(100, 2) # 100个样本,每个样本有两个特征
y = 5 + 3 * X[:, 0] + 2 * X[:, 1] + np.random.randn(100) # 目标变量是随机生成的
# 划分数据集为训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 创建并初始化线性回归模型
model = LinearRegression()
# 训练模型
model.fit(X_train, y_train)
# 预测测试集结果
y_pred = model.predict(X_test)
# 打印一些模型信息
print("模型系数: ", model.coef_)
print("模型截距: ", model.intercept_)
机器学习线性回归的代码示例
当然,下面是一个简单的机器学习线性回归的代码示例:
```python
import numpy as np
from sklearn.linear_model import LinearRegression
# 定义训练数据集
X = np.array([[1], [2], [3], [4], [5]])
y = np.array([2, 4, 6, 8, 10])
# 创建线性回归模型对象
model = LinearRegression()
# 使用训练数据集训练模型
model.fit(X, y)
# 进行预测
X_test = np.array([[6], [7]])
y_pred = model.predict(X_test)
print(y_pred) # 输出预测结果
```
这是一个简单的线性回归示例,使用了scikit-learn库中的LinearRegression类。首先,定义了训练数据集X和y,其中X是自变量,y是因变量。然后,创建了一个线性回归模型对象model,并使用fit()方法进行训练。最后,使用predict()方法对新的数据进行预测,并输出结果。
注意:这只是一个简单的示例,请根据实际情况进行修改和调整。