softmax和Bp
时间: 2023-11-20 20:15:59 浏览: 240
NLP NLP到Word2vec实战班 LR softmax and BP reference.txt
Softmax和BP(Back Propagation)是神经网络中常用的两个概念。
Softmax是一种激活函数,通常用于多分类问题的输出层。它能够将神经网络的输出转化为各个类别的概率分布,使得输出的概率总和为1。在MNIST手写字符识别中,使用Softmax函数可以将神经网络的输出转化为每个数字的概率分布,从而判断出最有可能的数字。
BP(Back Propagation)是一种训练神经网络的方法。它基于梯度下降算法,通过不断调整网络中的权重和阈值,来使得网络的输出尽可能地接近真实标签。BP算法通过反向传播误差,将误差逐层地传递回网络的每一个神经元,并利用梯度来更新网络的参数。然而,BP算法也存在一些不足之处。由于参数较多,每次更新都需要计算大量的梯度,导致收敛速度较慢,并且容易陷入局部最小值而不是全局最小值。
综上所述,Softmax是一种用于多分类问题输出层的激活函数,而BP是一种训练神经网络的方法。在MNIST手写字符识别中,常使用两层BP神经网络结构,并结合Softmax函数作为输出层的激活函数,来实现对手写字符的识别。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* [dropout_and_minibatch.rar_BP softmax_dropout_dropout softmax_dro](https://download.csdn.net/download/weixin_42662171/86205119)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"]
- *2* [NLP NLP到Word2vec实战班 LR softmax and BP reference.txt](https://download.csdn.net/download/weixin_41429382/87435521)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"]
- *3* [【机器学习】BP & softmax求导](https://blog.csdn.net/apk6909/article/details/101929408)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"]
[ .reference_list ]
阅读全文