softmax和sig
时间: 2023-11-20 20:16:51 浏览: 197
softmax网络的两种实现
moid函数在多分类问题上有什么区别?
Softmax函数是sigmoid函数在多分类问题上的推广,它将多分类问题的结果以概率的形式展现出来,并用于网络的最后一层。它将任意实数值的K维向量压缩到(0, 1)范围内,并使得所有输出值归一化,得到不同概率之间的相互关联。
而sigmoid函数只是一个非线性激活过程,常用于二分类问题。对于n个神经元,无论进行softmax还是sigmoid,输出都是n个取值在(0, 1)的数。区别在于softmax是一个针对输出结果归一化的过程,也称为softmax层;而sigmoid只是一个激活函数。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* *2* *3* [softmax与sigmoid函数的区别](https://blog.csdn.net/qq_40379132/article/details/125392497)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"]
[ .reference_list ]
阅读全文