遥感影像语义理解

面向高分辨率遥感影像场景语义理解的概率主题模型研究:http://www.lmars.whu.edu.cn/index.php/xwzx/2320.html

基于自适应深度稀疏语义建模的高分辨率遥感影像场景分类:链接

为了挖掘高分辨率遥感场景更具区分性的语义信息,提出了一种将稀疏主题和深层特征自适应相融合的深度稀疏语义建模(ADSSM)框架。首先,为了从影像中发现本质底层特征,ADSSM框架集成了基于中层的稀疏主题模型FSTM和基于高层的卷积神经网络CNN。基于稀疏主题和深度特征视觉信息的互补性,设计了三种异质性稀疏主题和深度场景特征来描述高分辨率遥感影像的复杂的几何结构和空间模式。其中, FSTM可以从影像中获取局部和显著性信息,而CNN则更多关注的是全局和细节信息。稀疏主题和深度特征的集成为高分辨率遥感场景提供了多层次的特征描述。其次,为了改善稀疏主题和深度特征的融合,针对稀疏主题和深度特征之间的差异性,提出了一种自适应特征标准化策略。在ADSSM中,挖掘的稀疏主题和深度特征各自进行自适应的标准化,以增强代表性特征的重要性。基于自适应融合特征的表达,ADSSM框架可以减少复杂场景的混淆。ADSSM框架在UCM、Google、NWPU-RESISC45以及OSRSI20四个数据集上的结果表明提出的方法相较于目前公认的高精度场景分类方法来说有了较大的提升。

猜你喜欢

转载自www.cnblogs.com/2008nmj/p/10386451.html