sigmoid激活函数改进
时间: 2023-09-13 08:06:03 浏览: 114
sigmoid激活函数的改进有很多方法。一种常见的改进方法是使用ReLU(Rectified Linear Unit)激活函数。相对于sigmoid函数,ReLU函数在深度学习中具有更好的效果。因为ReLU函数简单,计算速度快,并且能够避免梯度消失问题。另外,ReLU函数还解决了sigmoid函数不以0为中心的问题,使得梯度下降更加稳定。所以在深度神经网络中,ReLU函数已经成为了一种常用的激活函数。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* [深度神经网络中常用的激活函数的优缺点分析](https://blog.csdn.net/kuweicai/article/details/93926393)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"]
- *2* *3* [机器学习笔记-激活函数](https://blog.csdn.net/weixin_54814385/article/details/123367145)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"]
[ .reference_list ]
阅读全文