python多元拟合
时间: 2024-12-27 15:24:28 浏览: 11
### 实现多元线性回归拟合
在Python中实现多元线性回归拟合通常涉及多个自变量和一个因变量之间的关系建模。下面展示了一个具体的例子,该实例利用`numpy`库完成基本操作,并借助`scipy`中的优化功能求解参数。
对于更复杂的场景或者为了简化流程,还可以采用专门设计用于机器学习任务的`sklearn`库来进行多元线性回归分析[^3]。
#### 使用Numpy进行多元线性回归
当仅有两个独立变量时,可以直接通过矩阵运算解决这个问题:
```python
import numpy as np
# 假设的数据集
X = np.array([[1, 2], [2, 3], [4, 3], [3, 5], [5, 5]]) # 自变量
Y = np.array([2.5, 3.5, 4.6, 4.0, 5.4]) # 因变量
# 添加一列全为1作为截距项
ones = np.ones(len(X))
X_b = np.column_stack((ones, X))
# 计算权重向量 (β0, β1, ..., βn)
beta = np.linalg.inv(X_b.T.dot(X_b)).dot(X_b.T).dot(Y)
print("Coefficients:", beta)
```
这段代码展示了如何构建并求解多元线性方程组以获得最佳拟合直线的斜率和其他系数[^1]。
#### 利用Scipy执行最小二乘法
除了上述基于矩阵代数的手动方式外,也可以调用SciPy包里的optimize模块下的leastsq函数自动寻找最优解:
```python
from scipy.optimize import leastsq
def residuals(p, y, x):
b0, b1, b2 = p
err = y-(b0+b1*x[:,0]+b2*x[:,1])
return err
p0=[1,1,1] # 初始化猜测值
plsq=leastsq(residuals,p0,args=(Y,X))
print('Fitted parameters:', plsq[0])
```
此部分说明了另一种途径——即运用数值方法而非解析表达式来逼近真实模型参数[^2]。
#### Sklearn库的应用
考虑到实际应用的需求以及易用性的考量,推荐使用`sklearn.linear_model.LinearRegression`类快速建立预测模型:
```python
from sklearn.linear_model import LinearRegression
model = LinearRegression()
model.fit(X, Y)
predicted_Y = model.predict(X)
print(f"Coefficient: {model.coef_}")
print(f"Intercept: {model.intercept_}")
plt.figure(figsize=(8, 6))
ax = plt.axes(projection='3d')
ax.scatter3D(X[:, 0], X[:, 1], Y, c=Y);
xx, yy = np.meshgrid(range(6), range(6))
zz = lambda x,y: model.intercept_ + sum(cof*val for cof,val in zip(model.coef_, [x,y]))
surf = ax.plot_surface(xx,yy,np.vectorize(zz)(xx,yy), alpha=.5)
plt.show()
```
这里不仅实现了对给定数据点的学习过程,还直观地呈现出了三维空间内的拟合平面图象。
阅读全文