ReLU激活函数对应的梯度下降函数
时间: 2023-12-29 15:05:09 浏览: 74
ReLU激活函数杂谈
5星 · 资源好评率100%
ReLU激活函数的导数为:
$$
\frac{\partial}{\partial x}ReLU(x) =
\begin{cases}
1, & \text{if } x > 0\\
0, & \text{otherwise}
\end{cases}
$$
因此,ReLU激活函数对应的梯度下降函数为:
$$
\theta_{i+1} = \theta_i - \alpha \cdot \frac{\partial}{\partial \theta_i}J(\theta_i)
$$
其中,$J(\theta_i)$是损失函数,$\alpha$是学习率,$\theta_i$是第$i$次迭代的参数。
在使用ReLU作为激活函数时,对应的梯度下降函数为:
$$
\theta_{i+1} = \theta_i - \alpha \cdot \frac{\partial}{\partial \theta_i}J(\theta_i) \cdot
\begin{cases}
1, & \text{if } \theta_i > 0\\
0, & \text{otherwise}
\end{cases}
$$
这是因为当$\theta_i > 0$时,ReLU激活函数的导数为1;当$\theta_i \leq 0$时,ReLU激活函数的导数为0。因此,梯度下降的更新只会在$\theta_i > 0$时发生。
阅读全文