你是否曾经训练过一个模型,在评估指标上表现出色,但在实际可视化边界框时,却发现它在许多情况下都失败了?这可能是因为像简单交并比(IoU)这样的标准指标并没有很好地捕捉到你所期望的模型行为。
简单的IoU在当前阶段已经显得有些过时了。
IoU作为一个评估指标可能还算不错,尽管它仍然存在一些问题。但重要的是,其实已经有很多更新、更智能的指标。让我们来看看其中的几个,这样你可能就会重新考虑是否要在模型训练、评估和推理中继续使用IoU这个过时的指标。
为什么IoU很重要在目标检测任务中,IoU指标实际上贯穿于模型开发的每个阶段:
评估阶段:在评估模型性能时,通常使用IoU指标将预测边界框与真实边界框进行比较。
训练阶段:在优化模型定位能力时,IoU指标的可微分版本常被用作回归损失函数。
推理阶段:在推理过程中,非极大值抑制(NMS)通常被用来处理同一目标被预测出多个边界框的问题。为了解决这个问题,需要比较两个预测框,如果它们的IoU很高,就丢弃置信度较低的那个框。
最近的一些进展,如Yolo-V10和类DETR模型中的"无NMS"训练策略,设法避免了第三种情况。但是第一种和第二种用例在未来可能仍将继续存在。
所以IoU是非常重要的,那么如何能够提高他的效果呢?让我们来看看这些IoU变体!
1、交并比(IoU)首先从基础开始——所谓的交并比究竟是什么?
这是目标检测领域的首选评估指标。计算两个边界框的IoU时,如果它们有重叠区域,就测量重叠面积,然后除以两个框所覆盖的总面积。
下面是与上图相对应的代码:
def iou(boxA, boxB): xA = max(boxA[0], boxB[0]) yA = max(boxA[1], boxB[1]) xB = min(boxA[2], boxB[2]) yB = min(boxA[3], boxB[3]) # Compute the area of intersection rectangle interArea = max(0, xB - xA) * max(0, yB - yA) # Compute the area of both the prediction and ground-truth rectangles boxAArea = (boxA[2] - boxA[0]) * (boxA[3] - boxA[1]) boxBArea = (boxB[2] - boxB[0]) * (boxB[3] - boxB[1]) # Compute the IoU iou = interArea / float(boxAArea + boxBArea - interArea) return iou
IoU简单且在许多情况下都适用,但它也有缺陷。比如说当两个框很好地重叠时,它的效果不错;但如果两个框完全不重叠呢?那IoU就变成了零!
这种情况在小目标上经常发生,这也是为什么这个指标偏向于大目标的原因。正是IoU缺乏细微表达能力的问题,促使人们开发出了更复杂的变体。
2、广义交并比(GIoU)当两个框不重叠时,IoU就失效了但如果我们能够度量不重叠的两个框之间的距离呢?
这就是广义IoU(GIoU)。GIoU不仅度量重叠面积,还通过考虑最小外接矩形框的面积来度量两个框之间的距离。
我们用C表示包围两个框的最小矩形框的面积。这样一来,即便是两个框没有重叠(常规IoU为零),GIoU仍然能够提供有价值的反馈,告诉我们预测框在尝试捕获目标方面的效果如何。这有助于我们改进模型训练,使其更适合评估。
GIoU能够提供对模型学习过程更深入的洞察,特别是在训练的早期阶段,因为早就其节点的模型的定位能力往往还很糟糕。
def giou(boxA, boxB): # Calculate IoU iou_value = iou(boxA, boxB) # Calculate the smallest enclosing box xC_min = min(boxA[0], boxB[0]) yC_min = min(boxA[1], boxB[1]) xC_max = max(boxA[2], boxB[2]) yC_max = max(boxA[3], boxB[3]) # Area of the smallest enclosing box enclosingArea = (xC_max - xC_min) * (yC_max - yC_min) # Area of union unionArea = boxAArea + boxBArea - interArea # Calculate GIoU giou = iou_value - (enclosingArea - unionArea) / enclosingArea return giou
3、距离交并比(DIoU)为什么我们需要最小外接矩形框呢,难道不能直接度量两个框之间的距离吗?
在训练的初始阶段,使用DIoU作为损失函数可以帮助模型更快地改进定位能力,因为它为不重叠的框提供了更加明确的梯度信号。
DIoU在常规IoU的基础上,额外考虑了两个框中心点之间的欧氏距离d:
在DIoU的计算中,用c的平方(即包围两个框的最小外接矩形框的对角线长度的平方)对距离d进行归一化。
DIoU根据预测框中心与真实框中心之间的距离来惩罚预测结果。对于不重叠的两个框,DIoU损失会随着它们之间距离的平方而增大,而GIoU损失则有一定的饱和趋势。
这使得模型在处理不重叠框时能够更快地学习。但是,DIoU损失有时会导致梯度信号过于极端,从而导致权重更新幅度过大,尤其是在使用一些带噪声的标注分配算法(如DETR类模型中的匈牙利算法)时。
DIoU的另一个缺点在于,它过于关注两个框中心的距离,而忽略了框本身形状的差异。
究竟哪种损失函数最适合你呢,还是取决于具体的任务、数据和训练设置。建议都试一试,看看DIoU是否能给你带来更好的效果。
import numpy as npdef diou(boxA, boxB): # Calculate IoU iou_value = iou(boxA, boxB) # Center of boxA and boxB centerA = [(boxA[0] + boxA[2]) / 2, (boxA[1] + boxA[3]) / 2] centerB = [(boxB[0] + boxB[2]) / 2, (boxB[1] + boxB[3]) / 2] # Distance between the centers center_distance = np.linalg.norm(np.array(centerA) - np.array(centerB)) # Diagonal distance of the enclosing box xC_min = min(boxA[0], boxB[0]) yC_min = min(boxA[1], boxB[1]) xC_max = max(boxA[2], boxB[2]) yC_max = max(boxA[3], boxB[3]) diagonal_distance = np.linalg.norm([xC_max - xC_min, yC_max - yC_min]) # Calculate DIoU diou = iou_value - (center_distance ** 2) / (diagonal_distance ** 2) return diou
4、完全交并比(CIoU)我们如何在DIoU的基础上同时优化两个框的形状差异呢?这就引出了CIoU。
这个"超级损失函数"集成了前面提到的各种IoU变体的优点。它类似于DIoU,但额外引入了一项用于惩罚长宽比差异的项。可以把CIoU看作是边界框回归任务的"终极Boss"!
CIoU的公式,其中引入了两个新的项:α和v。
v项度量了两个框的长宽比差异。它的定义相对复杂,但可以类比为一种广义上的欧氏距离。
α是一个权重项,用于平衡IoU项和长宽比差异项。当预测框与真实框的重合度很低时,α会趋近于0,此时CIoU退化为DIoU;而当重合度较高时,α会趋近于1,此时CIoU会更多地考虑两个框的形状差异。
CIoU可能是当前最前沿的目标检测系统中使用的最复杂的IoU变体。它同时考虑了:
两个框中心点之间的距离(像DIoU一样)
两个框的形状/大小的相似程度
并通过权重项α来平衡二者
使用CIoU确实能够给我带来一些性能提升,但相比DIoU而言,提升幅度并不算太大。这也与最初提出DIoU和CIoU的论文《Distance-IoU损失》的实验结果基本一致。下图展示了他们在一个实验中使用不同IoU变体所得到的收敛曲线。
需要注意的是,为了提高训练稳定性,对于定位很差的预测框,我们通常将α项设为0。这样可以保证模型先专注于缩小两个框的距离,而不去过早地优化形状差异。
下面是一个PyTorch实现的CIoU损失函数:
def ciou(boxA, boxB): # Calculate DIoU diou_value = diou(boxA, boxB) iou_value = iou(boxA, boxB) # Width and height of the boxes widthA, heightA = boxA[2] - boxA[0], boxA[3] - boxA[1] widthB, heightB = boxB[2] - boxB[0], boxB[3] - boxB[1] # Aspect ratio penalty v = (4 / (np.pi ** 2)) * np.power(np.arctan(widthA / heightA) - np.arctan(widthB / heightB), 2) alpha = v / ((1 - iou_value) + v) if iou_value > 0.5 else 0 # CIoU calculation ciou = diou_value + alpha * v return ciou
总结GIoU、DIoU和CIoU这三个变体都有各自的独到之处,它们在一定程度上弥补了普通IoU在处理不重叠、距离较远或形状差异较大的边界框时的不足。
这些新的指标不仅仅给出一个量化的分数,它们的各项组成部分还能告诉我们,预测结果好坏的原因究竟是什么。
虽然本文主要聚焦在训练阶段,但请注意,这些指标实际上可以用于所有三个场景:训练、评估和推理。所以建议在所有场合都使用CIoU,但在评估时,可能还需要一些时间来建立对其数值的直观理解。
当然最后还是我们一直说的那句话到底应该使用哪种IoU变体组合,还是要看你自己的实际情况!每个都试一试,一定不会有错的。
https://avoid.overfit.cn/post/fd8eff2b11f14aba890d45649d72a44a
作者:Benjamin Bodner