Skip to content

Latest commit

 

History

History
101 lines (67 loc) · 4.01 KB

loss_select.md

File metadata and controls

101 lines (67 loc) · 4.01 KB

如何解决二分类中类别不均衡问题

对于二类图像分割任务中,经常出现类别分布不均匀的情况,例如:工业产品的瑕疵检测、道路提取及病变区域提取等。

目前PaddleSeg提供了三种loss函数,分别为softmax loss(sotfmax with cross entroy loss)、dice loss(dice coefficient loss)和bce loss(binary cross entroy loss). 我们可使用dice loss解决这个问题。

注:dice loss和bce loss仅支持二分类。

Dice loss

Dice loss的定义如下:


其中 Y 表示ground truth,P 表示预测结果。| |表示矩阵元素之和。 表示YP的共有元素数, 实际通过求两者的逐像素乘积之和进行计算。例如:


其中 1 表示前景,0 表示背景。

Note: 在标注图片中,务必保证前景像素值为1,背景像素值为0.

Dice系数请参见维基百科

为什么在类别不均衡问题上,dice loss效果比softmax loss更好?

首先来看softmax loss的定义:


其中 y 表示ground truth,p 表示网络输出。

在图像分割中,softmax loss评估每一个像素点的类别预测,然后平均所有的像素点。这个本质上就是对图片上的每个像素进行平等的学习。这就造成了一个问题,如果在图像上的多种类别有不平衡的表征,那么训练会由最主流的类别主导。以上面DeepGlobe道路提取的数据为例子,网络将偏向于背景的学习,降低了网络对前景目标的提取能力。 而dice loss(dice coefficient loss)通过预测和标注的交集除以它们的总体像素进行计算,它将一个类别的所有像素作为一个整体作为考量,而且计算交集在总体中的占比,所以不受大量背景像素的影响,能够取得更好的效果。

在实际应用中dice loss往往与bce loss(binary cross entroy loss)结合使用,提高模型训练的稳定性。

PaddleSeg指定训练loss

PaddleSeg通过cfg.SOLVER.LOSS参数可以选择训练时的损失函数, 如cfg.SOLVER.LOSS=['dice_loss','bce_loss']将指定训练loss为dice lossbce loss的组合

Dice loss解决类别不均衡问题的示例

我们以道路提取任务为例应用dice loss. 在DeepGlobe比赛的Road Extraction中,训练数据道路占比为:4.5%. 如下为其图片样例:


可以看出道路在整张图片中的比例很小。

数据集下载

我们从DeepGlobe比赛的Road Extraction的训练集中随机抽取了800张图片作为训练集,200张图片作为验证集, 制作了一个小型的道路提取数据集MiniDeepGlobeRoadExtraction

实验比较

在MiniDeepGlobeRoadExtraction数据集进行了实验比较。

  • 数据集下载
python dataset/download_mini_deepglobe_road_extraction.py
  • 预训练模型下载
python pretrained_model/download_model.py deeplabv3p_mobilenetv2-1-0_bn_coco
  • 配置/数据校验
python pdseg/check.py --cfg ./configs/deepglobe_road_extraction.yaml
  • 训练
python pdseg/train.py --cfg ./configs/deepglobe_road_extraction.yaml --use_gpu SOLVER.LOSS "['dice_loss','bce_loss']"
  • 评估
python pdseg/eval.py --cfg ./configs/deepglobe_road_extraction.yaml --use_gpu SOLVER.LOSS "['dice_loss','bce_loss']"

  • 结果比较

softmax loss和dice loss + bce loss实验结果如下图所示。 图中橙色曲线为dice loss + bce loss,最高mIoU为76.02%,蓝色曲线为softmax loss, 最高mIoU为73.62%。