NLReLU:自然对数修正激活函数在卷积神经网络中的应用

0 下载量 166 浏览量 更新于2024-08-27 收藏 576KB PDF 举报
"自然对数修正线性单元在卷积神经网络中的应用" 这篇研究论文探讨了在深度神经网络中激活函数的重要性和作用,特别关注了自然对数修正线性单元(NLReLU)这一新提出的激活函数。传统的ReLU(Rectified Linear Unit)因其简单和高效的特性在神经网络中被广泛应用,但其也存在一些问题,如死亡ReLU问题,即一部分神经元可能因为负输入而永久性地保持在零状态,这可能导致模型学习能力的下降。 NLReLU是ReLU的一种改进版本,它引入了参数化的自然对数变换来解决ReLU的缺点。NLReLU的定义为: \( f(x) = \beta \cdot \ln(max(0, x)) + 1.0 \) 其中,\(\beta\) 是一个可学习的参数,可以根据训练数据动态调整,\(\ln\) 表示自然对数,\(max(0, x)\) 是ReLU的基本结构,确保当输入 \(x\) 为负时输出为零。通过这种形式,NLReLU在保留ReLU非线性特性的基础上,增加了更多的表达能力,能够更好地适应不同数据分布。 论文指出,NLReLU不仅解决了ReLU的部分问题,而且能够提高模型的表达能力和泛化性能。自然对数的引入使得在负值区域有更平滑的梯度,减少了梯度消失的问题,同时,可学习的参数\(\beta\)使得网络可以自适应地调整非线性程度,以适应不同层和不同阶段的训练需求。 此外,该研究还对比了NLReLU与其他一些激活函数,如Leaky ReLU、Parametric ReLU(PReLU)和ELU(Exponential Linear Units)等,分析了它们在不同情况下的性能表现。实验结果表明,NLReLU在多项基准任务上表现出优于或至少与这些竞争激活函数相当的性能,特别是在图像分类和物体检测等卷积神经网络应用中。 研究得到了中国国家自然科学基金创新研究群体项目和面上项目的资助,展示了NLReLU在深度学习领域的潜在价值,并为未来神经网络设计提供了新的思路。论文作者包括杨柳、张建鹏、高超、曲静华和李欣吉,通信作者为张建鹏。