L1正则化Logistic回归
时间: 2023-11-13 08:51:50 浏览: 88
L1正则化在Logistic回归中的作用是通过增加一个L1范数项来对模型中的权重进行稀疏化处理。这种处理方式可以使得部分特征的权重变为0,从而达到特征选择的效果。相比于L2正则化,L1正则化更加倾向于产生稀疏的权重矩阵,即只有少数几个特征对最终结果起到显著影响,而其他特征的权重趋近于0。
具体来说,L1正则化通过在损失函数中引入一个L1范数项来实现,即在原本的损失函数上加上一个参数λ乘以权重向量的L1范数。这样,当优化算法尝试调整权重以减小损失函数时,L1范数项会起到约束作用,使得权重向量中的某些分量趋向于0。这样,就实现了对特征的稀疏性控制,使得模型更加简单且易于解释。
相关问题
logistic回归算法时一个经验损失最小化算法。因此,可以对其进行正则化,轻描诉logistic回归算法的L1正则化与L2正则化算法的目标函数,并用梯度下降算法实现logistic回归算法的L1正则化与L2正则化。写出代码
Logistic回归算法的目标函数是最小化交叉熵损失函数,可以加入L1正则化或L2正则化。
L1正则化的目标函数为:
$$
J(\boldsymbol{w}) = \frac{1}{m}\sum_{i=1}^{m}\left[ -y^{(i)}\log(\hat{y}^{(i)}) - (1-y^{(i)})\log(1-\hat{y}^{(i)})\right] + \alpha \sum_{j=1}^{n}|\boldsymbol{w_j}|
$$
L2正则化的目标函数为:
$$
J(\boldsymbol{w}) = \frac{1}{m}\sum_{i=1}^{m}\left[ -y^{(i)}\log(\hat{y}^{(i)}) - (1-y^{(i)})\log(1-\hat{y}^{(i)})\right] + \frac{\alpha}{2}\sum_{j=1}^{n}\boldsymbol{w_j}^2
$$
其中,$\alpha$ 是正则化系数,$\boldsymbol{w_j}$ 是权重向量的第 $j$ 个元素。
使用梯度下降算法实现:
L1正则化:
```python
def sigmoid(x):
return 1 / (1 + np.exp(-x))
def l1_logistic_regression(X, y, alpha=0.1, learning_rate=0.01, max_iter=1000):
m, n = X.shape
w = np.zeros((n, 1))
b = 0
for i in range(max_iter):
y_hat = sigmoid(np.dot(X, w) + b)
dw = (1 / m) * np.dot(X.T, (y_hat - y)) + (alpha / m) * np.sign(w)
db = (1 / m) * np.sum(y_hat - y)
w -= learning_rate * dw
b -= learning_rate * db
return w, b
```
L2正则化:
```python
def l2_logistic_regression(X, y, alpha=0.1, learning_rate=0.01, max_iter=1000):
m, n = X.shape
w = np.zeros((n, 1))
b = 0
for i in range(max_iter):
y_hat = sigmoid(np.dot(X, w) + b)
dw = (1 / m) * np.dot(X.T, (y_hat - y)) + (alpha / m) * w
db = (1 / m) * np.sum(y_hat - y)
w -= learning_rate * dw
b -= learning_rate * db
return w, b
```
其中,`X` 是数据矩阵,每行代表一个样本,每列代表一个特征,`y` 是标签向量,`alpha` 是正则化系数,`learning_rate` 是学习率,`max_iter` 是最大迭代次数。返回值是权重向量 `w` 和偏置项 `b`。
用梯度下降算法实现Logistic回归的L1正则化和L2正则化
对于Logistic回归的L1正则化,损失函数为:
J(w) = -1/m * [sum(yi*log(h(xi)) + (1-yi)*log(1-h(xi))) + lambda * sum(abs(w))]
其中,yi是第i个样本的标签,h(xi)是该样本的预测概率,w是模型参数,lambda是正则化系数。可以使用梯度下降算法更新参数:
w_j = w_j - alpha * (1/m * sum((h(xi)-yi)*xi_j) + lambda * sign(w_j))
其中,alpha是学习率,sign(w_j)是w_j的符号函数,即当w_j>0时为1,w_j<0时为-1,w_j=0时为0。
对于Logistic回归的L2正则化,损失函数为:
J(w) = -1/m * [sum(yi*log(h(xi)) + (1-yi)*log(1-h(xi))) + lambda/2 * sum(w^2)]
其中,yi是第i个样本的标签,h(xi)是该样本的预测概率,w是模型参数,lambda是正则化系数。可以使用梯度下降算法更新参数:
w_j = w_j - alpha * (1/m * sum((h(xi)-yi)*xi_j) + lambda * w_j)
其中,alpha是学习率。注意,L2正则化中的正则化项是w的平方和,而不是绝对值和。
阅读全文