梯度下降岭回归模型数学推导
时间: 2024-10-17 18:02:30 浏览: 31
梯度下降岭回归是一种用于线性回归分析的优化算法,它结合了经典的最小二乘法和正则化技术。正则化通过向目标函数添加一个L2范数项(也称为岭惩罚),防止过拟合。下面是梯度下降法求解岭回归模型参数的数学推导:
假设我们有一个数据集 \( \mathcal{D} = \{(x_1, y_1), (x_2, y_2), ..., (x_n, y_n)\} \),其中 \( x_i \) 是输入特征,\( y_i \) 是对应的标签。我们的目标是找到一个线性模型 \( h_\theta(x) = \theta^T x \),使得预测误差平方和 \( E(\theta) \) 最小,并加上L2正则化项。
目标函数(损失函数)可以表示为:
\[ J(\theta) = \frac{1}{2n} \sum_{i=1}^{n}(h_\theta(x_i) - y_i)^2 + \frac{\lambda}{2n} \|\theta\|^2_2 \]
这里,\( \lambda \) 是正则化强度,\( \|\theta\|^2_2 \) 表示向量 \( \theta \) 的L2范数。
梯度下降的基本步骤是更新参数 \( \theta \) 朝反方向(梯度的负方向)移动,直到达到局部最小值。对 \( J(\theta) \) 关于 \( \theta \) 求偏导数得到梯度:
\[ \nabla J(\theta) = \frac{1}{n}\sum_{i=1}^{n}(h_\theta(x_i) - y_i)x_i + \frac{\lambda}{n}\theta \]
每次迭代时,我们按照以下公式更新 \( \theta \):
\[ \theta_j := \theta_j - \alpha \left( \frac{1}{n}\sum_{i=1}^{n}(h_\theta(x_i) - y_i)x_{ij} + \frac{\lambda}{n}\theta_j \right) \]
其中 \( j \) 是当前维度,\( \alpha \) 是学习率。
阅读全文