【论文学习】基于无监督迁移学习的高光谱目标检测

版权声明: https://blog.csdn.net/DL_wly/article/details/80738781

Unsupervised transfer learning for target detection from hyperspectral images

基于无监督迁移学习的高光谱目标检测

论文来源:https://doi.org/10.1016/j.neucom.2012.08.056

摘要

    目标检测一直是高光谱图像处理的热门领域之一。传统的目标检测方法取决于观察中的所有像素的相对固定的特征。例如,RX对所有像素采用相同的距离测量。但是,最好的分离结果通常来自特定的目标和背景。理论上讲,它们是最纯粹的目标和背景像素,或子空间模型中的建设性端元。因此,使用那些最具代表性的像素特征来训练一个集中的子空间有望增强目标和背景之间的可分性。同时,将这些训练数据中的判别信息应用于不属于同一特征空间且数据分布不同的大量测试数据是一个挑战。这里采用了视频中交互式标注技术的迁移学习思想。基于迁移学习框架,考虑了几点,并将所提出的方法命名为基于无监督迁移学习的目标检测(UTLD)算法。大量的实验表明,其性能可与先进的目标检测方法相媲美。

      UTLD算法:

  1. 从稳健的异常值检测生成极端目标和背景像素,为迁移学习中的目标样本和背景样本提供输入;
  2. 像素是根据分割方法中的根点计算的,目的是在缩小维度之后保留背景的最大分布特征;
  3. 迁移学习过程中施加了稀疏约束,有了这个约束,可以构建一个更简单,更集中的子空间,并且具有明确的物理意义。

1.Introduction

    目标检测的首要关键是目标的特征。在高光谱图像的目标检测中,最广泛使用的是光谱特征。常用的模型有线性混合模型与子空间模型,这两种模型均呈现出较好的性能,然而这两种物理模型需要先验信息。还有一种是取决于统计模型,对目标没有预先的知识,它被称为无监督的(包括异常检测)。

    这些常规方法中需要手动选择目标像素和背景像素,然后用于构建基于子空间的检测器,其中目标像素和背景像素被假定为可分离的。 然而,训练像素的数量通常是有限的,并且相应构造的子空间可能过度拟合训练像素,从而不能精确地检测剩余目标像素。我们能否找到一些方法来保存判别信息并避免过拟合? 迁移学习已经显示出其在有限的样本中学习子空间的良好性能,因此它被引入到本文中高光谱图像的目标检测中。 重点研究利用训练样本的判别信息和从训练目标/背景样本和那些未标记样本中学习一个合适的子空间,这篇文章为高光谱目标检测做出了几点贡献:

  1. 使用多元异常值分析来选择目标像素与背景像素并将其作为positive training 和 negative training的训练样本(现有的目标检测方法主要依赖于手动选择像素作为训练样本)。
  2. 采用分割方法来获得最具代表性和信息量的未标记样本。 这样可以充分考虑高光谱图像中丰富的连续空间特征(现有方法通常随机选择未标记的样本,或者图像中的所有样本用于学习检测器,如CEM)。
  3. 通过训练标注样本(包括positive样本和negative样本)和未标记样本,制定了基于迁移学习的子空间构建方法。 如果使用成对的判别分析来增强目标背景像素的可分离性,高光谱图像的现有目标检测方法主要依靠标记样本构造子空间。

2.多元异常检测的无监督目标识别

    迁移学习需要用到positive样本和negative样本。positive样本指目标像素,negative样本包含非目标像素与背景像素。这一部分主要是选择训练样本,样本包含正样本和负样本。

    多元异常分析的主要思想是迭代计算来自图像数据集的背景像素的均值和协方差矩阵,以构建一个最佳的基于马氏距离的检测器,并最终提取可能的异常值,具体过程如下:

  1. 随机选择图像中1/3像素作为初始基本子集;
  2. 计算每个像素的均值向量与自相关矩阵;
  3. 计算每个像素向量的马氏距离;
  4. 设置阈值η,并且将具有阈值η以下的距离的图像中的像素设置为新的基本子集。阈值计算如下所示:                             
  5. 重复步骤2-4直到基本子集没有变化为止;
  6. 将最终基本子集排除的作为异常值,最终基本子集构成背景像素。

    以上是BACON的基本思路。 已经证明,在每次迭代中,BACON包含距离基本子集小于η的像素,但迭代次数通常很小。此外,它通过更新迭代中的基本子集来搜索最合理的均值向量和协方差矩阵来检测异常像素。 最终的平均值往往会偏向非外围背景像素的真实中心。

    从数据集中排除的异常值可能包含光谱异常,主要是噪声像素或罕见的不感兴趣的像素。为了消除光谱异常像素,需要进一步研究所有排除的像素。丢弃其中一半规格较大的像素,剩余的像素被用作正样本。至于背景像素,它们通过k-means聚类成几个组,这些组的数量等于正样本数量的三倍。 在每个组中,选择与所有正样本的平均距离最大的像素,所有选择的背景像素都包含最终的负样本。利用正面和负面的样本,可以构建成对的区分信息,这将在第4部分中详细介绍。

扫描二维码关注公众号,回复: 6230804 查看本文章

3.未标记像素的获取

    在本节中,进行分割和随后的流形分析以获得未标记的样本,这是迁移学习所必需的。其目的是充分利用高光谱图像的空间特征和流形特征,获得适当的未标记样本进行迁移学习。

    通常情况下,只有高质量的未标记样本才能正确表示数据的分布,这些分布在迁移学习过程中使用以避免过度拟合问题。 最常见的做法是将点的子集随机抽样为未标记的样本。 然而,对于统计学中的大类小类并不适用。 对于这个问题,文章中使用了一种高效的基于图形的图像分割方法,极大程度地将图像分割成小区域。 它可以减小样本大小来表征均匀区域,并每个小均匀区域中的像素具有较高的相似性并且可以共享相同的标签。 每个区域中的一个代表像素可以被选作未标记样本。

    高效的基于图形的图像分割直接在特征空间中的数据点上工作并使用单链接聚类上的变化。为了执行传统的单链接聚类,首先生成数据点的最小生成树。其具体做法如下:

    高效的基于图形分割算法,如式(8)中所示,使用了可变阈值来合并两个分量的单连接聚类。并且根据数据点生成最小生成树,文章中k值设置为0.8,适用于大多数高光谱图像。

    半监督学习方法的一个常见假设是标记和未标记的样本位于相同的子流形中。因此,现有标记数据集和未标记候选之间的相关关系被应用于丢弃不相关的未标记样本。为了实现这个目标,完成上述分割过程以获得分割区域。在每个区域中,首先合并的两个顶点被命名为该区域的根。每个地区的根源之一被选作未标记样本。然后,我们寻找图像中每个未标记样本的t个光谱最近邻。对于每个未标记的样本,如果其邻居中存在标记样本,则相关性即退出。因此,这个未标记的候选者应该在最终的未标记集合中选择。否则,未标记的样品将被丢弃。请注意,邻居的数量t控制着这个相关性标准。在实践中,我们应该设置更大的t来放宽对这个选择过程的约束,以便容忍更多的频谱可变性。我们在实验中将t固定为20。最后,我们将在分割图像上获得剩余的未标记样本,将其输入到迁移学习过程中以保留分布属性。

4.迁移学习目标检测

    在2,3两节中,我们已经得到了标记的目标/背景样本以及未标记的样本,在本章中将构建目标检测子空间。

4.1判别式流形

    流形学习:一个前提是manifold中足够小的区域近似于欧式空间,流形学习目的是构造保留原始输入特征的低维表示的局部几何特性。

    LDA探索成对判别信息以最大化不相似对之间的距离并使相似对之间的距离最小化。对于目标检测,降维后的子空间应该能够使目标样本和背景样本之间的距离最大化,并分别使目标样本和背景样本内的距离最小化。换句话说,目标 - 目标样本对应尽可能接近并且目标 - 背景样本对在学习子空间中尽可能地远离。这种成对区分降维问题的优化可以用类似于补丁对齐框架的方式来制定。在低维特征空间中,对于目标类别t_i的每个样本,我们预期给定样本与目标类别中其他样本之间的欧几里德距离尽可能小,而给定样本与其他样本之间的距离在后台阶级尽可能大,即

结合式(9)(10)可以引入参数c得到

可以进一步优化为如下:

此时完成了一个区域的部分,进一步的可以将目标类别的样本推广到整个图像中,得到全局的结果。

4.2迁移正则化

     然而目标样本(或正样本)非常少见,并且背景样本(或负样本)也存在少量。通过这些样本,学习了一个子空间,它只能根据先前给定的训练信息最大限度地将目标样本与背景样本分开。由此产生的子空间会对有限的训练样本产生偏差,并且主导的结构分布也发生变化。此时需要用到迁移学习,他被用来保存从训练数据到不在同一特征空间和不同数据分布的测试数据的判别信息。本文将大量未标记样本提供的显性结构分布作为正则化来寻找一个子空间,该子空间应该将判别信息从训练数据转化为误差少的子序列的训练数据。

    主成分分析(Principal Component Analysis,PCA)是一种根据数据矩阵的最大方差寻找主成分的线性变换,因此分布的主要结构可以很好地保留在子空间中。用P表示PCA投影矩阵,迁移正则化的目的是最小化目标子空间和PCA子空间中未标记样本数据矩阵之间的欧氏距离。

    将判别式流形嵌入与正则化迁移结合为。由于样本数较少且高光谱图像维度高,这里W中可能包含很多0元素,因此需要采用稀疏约束 。 在稀疏公式中,关键是控制投影矩阵W的非零元素的数量。结合1范数和2范数构建目标函数:

    目标函数(26)中有三个参数β,φ1和φ2,再加上系数向量(11)中的参数c。在本文中,为了避免交叉验证,我们根据它们的物理意义手动设置这些参数。β揭示了判别式流形嵌入和迁移正则化之间的权重,因此可以由输入样本的数量决定,即我们将其设置在N12 / M左右。φ1和φ2是稀疏正则化的权重,也由给定的数据决定。c是判别式流形嵌入中的参数,用于控制目标类别和背景类别的最小化,设置在N2 / N1周围。

4.3解决问题

将目标函数做一系列优化,得到

    最后,利用降维的数据,采用简单的KNN分类和阈值处理来区分目标和背景。 该方法的整个流程图如图1所示。

5.实验结果

5.1数据集

Urban数据集以及Hymap数据集

5.2检测性能

    对比算法:local-RX,global-RX,CBAD(Cluster Based Anomaly Detector),ACE(自适应余弦估计)和AMSD(自适应匹配子空间检测器)。共5种算法用来做对比。

    使用Urban数据集,得到的ROC曲线如下所示,可以看到检测性能有了极大地提升:

   下图展示了使用HYMAP数据集,在相同虚警率条件下检测到的全局像素和子目标像素的数量,可以看到6种算法对全部像素检测性能基本一致,但对于亚像素目标而言有了很大的区别。可以明显的看出,UTLD算法在同等条件下可以检测到更多的目标,有着更好的性能。

与其他算法相比,UTLD算法能够提高目标检测性能的原因有如下几点:

  1. 多元异常值分析在选取感兴趣目标方向有优势,流形分析对于选择背景样本非常有用;
  2. 在子空间学习过程中增加成对的判别式约束。因此每个目标样本都被约束为与背景样本分离,目标样本的区分信息在UTLD中得到更充分的应用。
  3. 标记训练样本的数量有限通常会导致小样本量​​(SSS)问题,特别是对于高维特征提取。通过基于稀疏的迁移学习,SSS问题可以得到缓解。通过利用未标记的样品,也可以避免过度拟合。
  4. 在机器学习社区中,随机选择未标记样本进行降维或子空间学习方法是很常见的。对于高光谱图像,不同的地物以不同的空间分布,因此需要考虑大多数地物分布模式,从图像中选取未标记的样本,以获得具有代表性的标记样本。

文章5.3和5.4两节使用进一步的实验证实了后两点性能提升的原因。

6.总结

    本文提出了一种基于迁移学习的无监督目标检测方法。首先将更多可检测的目标与背景的光谱差异与背景分离,其中使用稳健的异常值检测方法。分割方法用于获取未标记的样本。 检测和分割结果都为转移学习提供了样本,构建了一个低维子空间,以更好地将目标与背景分离。 利用真实的高光谱遥感图像的实验结果表明,这种自动目标检测性能优于最先进的方法,特别是在那些亚像素目标上。未来的研究重点是如何自动确定最优参数,从而将所提出的方法应用于实现更好的性能。

###  本文为作者原创文章,第一次阅读迁移学习方向的论文,尤其对于第4部分还不是很理解,欢迎大家共同讨论  ###

猜你喜欢

转载自blog.csdn.net/DL_wly/article/details/80738781