语义分割评价指标parameters
时间: 2024-12-30 09:34:19 浏览: 8
### 语义分割评估指标参数详解
#### 1. 混淆矩阵 (Confusion Matrix)
混淆矩阵是用于描述分类模型性能的重要工具之一。对于二元分类问题,它由四个主要部分组成:真正类(True Positives, TP),假正类(False Positives, FP),真负类(True Negatives, TN),以及假负类(False Negatives, FN)[^1]。
```python
from sklearn.metrics import confusion_matrix
import numpy as np
y_true = [0, 1, 2, 2, 2]
y_pred = [0, 0, 2, 2, 1]
cm = confusion_matrix(y_true, y_pred)
print(cm)
```
#### 2. Pixel Accuracy
Pixel Accuracy是最简单的度量标准,表示预测正确的像素占总像素的比例。尽管易于理解和计算,但它未能充分反映不同类别之间的差异性。
\[ \text{Pixel Accuracy} = \frac{\sum_{i=0}^{C-1}{TP_i}}{\sum_{j=0}^{C-1}\left(TP_j + FP_j\right)} \]
其中 \( C \) 表示类别数量。
#### 3. Mean Intersection over Union (mIoU)
Mean IoU 是一种更全面衡量算法效果的方法,尤其适用于多标签或多分类场景下的表现评估。其定义如下:
\[ mIoU=\frac{1}{|C|}\sum _{c∈C}\frac{|X∩Y_c|}{|X∪Y_c|}, \]
这里 \( X \) 和 \( Y_c \) 分别代表地面真实情况和第 c 类别的预测结果集;\( |C| \) 则指代总的类别数目。
#### 4. Recall 或 True Positive Rate (TPR)
Recall也被称为灵敏度或查全率,在某些领域内还被叫做 TPR(True Positive Rate)。该比率反映了实际为正样本中被正确识别出来的比例[^2]。
\[ \text{Recall/TPR}= \frac {TP}{TP+FN} \]
#### 5. Precision
Precision即精确度,用来测量所有预测为阳性的实例中有多少确实是阳性案例。
\[ \text{Precision}= \frac {TP}{TP+FP} \]
#### 6. F1 Score
F1分数综合考虑了precision和recall两个方面的影响因素,通过调和平均的方式给出一个整体评分。
\[ F_1 = 2 * (\frac {\text{precision}*\text{recall}}{\text{precision}+\text{recall}} ) \]
阅读全文