弱监督检测文章解读之Min-Entropy Latent Model for Weakly Supervised Object Detection

弱监督目标检测:Weakly supervised object detection (WSOD)

文章:Min-Entropy Latent Model for Weakly Supervised Object Detection

简介:

因为弱监督检测只提供图像的类别标注,而不提供检测框的位置标注。因此弱监督和学习目标之间的不一致性引入了对象位置的随机性和对检测器的模糊性。

文章提出熵最小化潜模型用于弱监督目标检测,Min-entropy用作衡量学习期间对象定位的随机性的度量,以及用作学习对象位置的模型。它的目的主要是减少正实例的方差并减轻探测器的模糊性。 MELM被部署为两个子模型,它们分别通过最小化全局和局部熵来discover和locate对象。MELM与特征学习统一,并通过循环学习算法进行优化,逐步将弱监督转移到对象位置。实验验证这篇文章的方法,在目标检测定位,以及分类又较大的提升。

目前待解决的问题:量化次优解决方案并主要降低定位随机性的问题仍未解决。

文章的灵感来源:经典热力学原理,即最小化熵能够最小化系统的随机性。

熵最小化作为训练过程中目标定位的随机性度量,同时又作为学习目标位置的模型。

为了定义熵,图像中的对象proposal在空间上被分成集团,其中空间分布和对象的概率被联合建模。在学习的过程中,整体的所有集合的熵最小化能够找出有着高的目标概率的稀疏的proposal,而进一步把最小化作用在得分比较高的集合上能够最小化随机性的情况下,精确定位目标。

本文的贡献包括:
(1)最小熵潜在模型,其有效地发现潜在对象并且主要在弱监督学习期间最小化定位随机性。
(2)循环学习算法,以渐进方式联合优化图像分类器,对象检测器和深度特征。
(3)弱监督检测,定位和图像分类的最新性能。

Related work:

WSOD问题通常采用流水线方法解决,即首先应用对象提议方法将图像分解为object proposal,潜在变量学习[4,5,36,37,41,45]或多实例学习[2,8,9,16,42]用于迭代地执行proposal的选择和分类器估计。主流的方法涉及到多实例学习网络。

方法主要分为:Latent Variable Learning,Multiple Instance Learning (MIL)。

Multiple Instance Learning (MIL)

扫描二维码关注公众号,回复: 5498578 查看本文章

主流的方法是将WSOD问题定义为Multiple Instance Learning (MIL)问题。可以把这种方法比喻为从背包拿东西,在每次的迭代训练过程中,选择得分高的instance,从而训练检测器。但这种策略遇到large-scale dataset就比较困难。为了减少正实例的随机性,在MIL优化过程中提出过分包策略。

Deep Multiple Instance Learning Networks.

有图像 的类别标签,因此网络很容易学到图像的类别的特征,但是定位能力确实有限的。利用图像级监督学习的卷积滤波器包含冗余模式,例如,对象部分和背景,这导致定位随机性和模型模糊。 最近的方法经验地使用对象分割[12]和空间标签传播[38]来解决这些问题。

Result:

从实验结果看,作者提出的MELM模型,MAP比OICR,,Self-Taught,WCCN分别高4.5%, 4.1%, and 4.1%。

猜你喜欢

转载自blog.csdn.net/qq_33547191/article/details/88392352