[Semantic Segmentation Series] Teoria ICNET (Real-time Semantic Segmentation) e implementação de código

Endereço Git: https://github.com/Tramac/awesome-semantic-segmentation-pytorch

incluir:

FCN
ENet
PSPNet
ICNet
DeepLabv3
DeepLabv3+
DenseASPP
EncNet
BiSeNet
PSANet
DANet
OCNet
CGNet
ESPNetv2
CCNet
DUNet(DUpsampling)
FastFCN(JPU)
LEDNet
Fast-SCNN
LightSeg
DFANet

Quase inclui o código-fonte principal da segmentação semântica. Depurar um não é ruim

Veja o que você precisa escolher.

Vários pontos-chave da teoria ICNET:

1. Ideia central:

        Divida a imagem em três camadas: alta, média e baixa. A razão fundamental para a melhoria significativa de desempenho é permitir que imagens de baixa e baixa resolução passem pela rede de segmentação semântica para produzir resultados de segmentação aproximados; em seguida, a unidade híbrida de cascata de recursos (orientação de rótulo em cascata) e a estratégia de orientação de rótulo em cascata (cascata A integração de recursos de alta velocidade e alta resolução otimiza gradualmente os resultados de segmentação aproximados gerados anteriormente.

2. Diagrama de rede:

        De baixo para cima, de alta para baixa resolução. Os resultados de baixa resolução são combinados com os resultados de resolução média para gerar quadrados azuis, e os resultados de resolução média e quadrados azuis são fundidos com os mapas de recursos de alta resolução por meio do método CFF. Finalmente, o resultado é amostrado para obter a saída final.

3.CFF :

      Cascade Feature Fusion,

Primeiro, execute a interpolação bilinear em F1 e faça upsample em 2 vezes para torná-lo do mesmo tamanho que F2

Em seguida, use C3X3, uma convolução de buraco com uma taxa de amostragem de 2 para aumentar a amostragem F1. O tamanho da imagem gerada é o mesmo que F2. A convolução de buraco combina as informações de recursos dos pixels vizinhos originais e o campo receptivo é o mesmo que F2. A quantidade de cálculo é menor que a deconvolução. Marcado como A

Use a convolução CX1X1 para o recurso F2 para torná-lo o mesmo que o canal F1 (equivalente à dimensão ascendente). Denotado como B

Use a camada BN para padronizar as duas camadas de feições processadas AB .

Adicione os dois e use a ativação relu para obter o recurso de fusão F2 'que é do mesmo tamanho que F2.

4. Orientação da etiqueta da cascata

        A parte do círculo vermelho 4, que é usado durante o treinamento, corresponde à parte x_24_cls do código abaixo. Existem três dessas posições. Para ser franco, é o lugar para cascatear com antecedência, as informações de anotação do mapa de anotação em diferentes resoluções

x_cff_24, x_24_cls = self.cff_24(x_sub4, x_sub2)

 

5. Desempenho:

Desejo principalmente usar segmentação semântica em tempo real. Basta escolher um teste ICNET. O tempo de previsão da GPU de previsão de imagem de 2048 * 1024 é de cerca de 190 ms. Se você alterar o tamanho da imagem, os parâmetros de rede podem ser compactados um pouco mais rápido

6. Código:

       Nota 1: A rede de backbone que selecionei para teste é resnet50, e você precisa olhar as seguintes notas para esta rede. Pode ficar claro à primeira vista O papel da rede de backbone é extrair recursos. Outras redes de backbone são semelhantes, principalmente para ver o fluxo de implementação de ICNET.

       Nota 2: há um local pouco claro na parte CascadeFeatureFusion do código. Olha o papel 

Deve corresponder à fig.3. Consistente com o meu entendimento, deve ser diretamente após o upsampling da imagem baixa, tomando diretamente o upsampling como entrada e o número de categorias como o canal de saída para a subconvolução. Então fiz algumas mudanças, ainda não terminei o treinamento, então vamos esperar o treinamento para ver o efeito.

class CascadeFeatureFusion(nn.Module):
    """CFF Unit"""


        self.conv_low_cls = nn.Conv2d(low_channels, nclass, 1, bias=False)


        x_low = F.interpolate(x_low, size=x_high.size()[2:], mode='bilinear', align_corners=True)
        x_low1 = x_low
        
        x_low_cls = self.conv_low_cls(x_low1)

        return x, x_low_cls

   Código completo:                                                

"""Image Cascade Network"""
import torch
import torch.nn as nn
import torch.nn.functional as F

from .segbase import SegBaseModel

__all__ = ['ICNet', 'get_icnet', 'get_icnet_resnet50_citys',
           'get_icnet_resnet101_citys', 'get_icnet_resnet152_citys']

class ICNet(SegBaseModel):
    """Image Cascade Network"""

    def __init__(self, nclass, backbone='resnet50', aux=False, jpu=False, pretrained_base=False, **kwargs):
        super(ICNet, self).__init__(nclass, aux, backbone, pretrained_base=pretrained_base, **kwargs)
        self.conv_sub1 = nn.Sequential(
            _ConvBNReLU(3, 32, 3, 2, **kwargs),#ksize 3  stride 2   
            _ConvBNReLU(32, 32, 3, 2, **kwargs),
            _ConvBNReLU(32, 64, 3, 2, **kwargs)
        )

        self.ppm = PyramidPoolingModule()

        self.head = _ICHead(nclass, **kwargs)

        self.__setattr__('exclusive', ['conv_sub1', 'head'])

    def forward(self, x):
        # sub 1  原图做普通卷积 BN RL                     对应fig.2的 红圈1    例如 x shape [20, 3, 480, 480]
        x_sub1 = self.conv_sub1(x)  #图像变为原图 1/8                               x_sub1 shape [20, 64, 60, 60]

        # sub 2  x_sub2是将原图缩放到  1/2                                          x_sub2 shape [20, 3, 240, 240]
        x_sub2 = F.interpolate(x, scale_factor=0.5, mode='bilinear', align_corners=True)
        #过主干网络 例如resnet之类。 对x_sub2做特征提取   对应fig.2的 红圈2  看取值是取的layer2   大小变为  1 / 16
        #                                                                           x_sub2 shape [20, 512, 30, 30]
        _, x_sub2, _, _ = self.base_forward(x_sub2)

        # sub 4 x_sub4 原图缩放到 1 / 4                                             x_sub4 shape [20, 3, 120, 120]
        x_sub4 = F.interpolate(x, scale_factor=0.25, mode='bilinear', align_corners=True)#双线性插值将为 原图 1/4
        #过主干网络  对x_sub4做特征提取                   对应fig.2 的红圈3   看取值是取的layer4          1/32
        #                                                                           x_sub4 shape [20, 2048, 15, 15]
        _, _, _, x_sub4 = self.base_forward(x_sub4)
        # add PyramidPoolingModule
        # x_sub4作为输出 就是加上全局池化后的信息了                                 x_sub4 shape [20, 2048, 15, 15]
        x_sub4 = self.ppm(x_sub4)
        #上采样部分  x_sub1 [20, 64, 60, 60]  x_sub2 [20, 512, 30, 30]  x_sub4 [20, 2048, 15, 15]
        outputs = self.head(x_sub1, x_sub2, x_sub4)

        return tuple(outputs)
#类似PPM结构
class PyramidPoolingModule(nn.Module):
    def __init__(self, pyramids=[1,2,3,6]):
        super(PyramidPoolingModule, self).__init__()
        self.pyramids = pyramids

    def forward(self, input):
        feat = input
        height, width = input.shape[2:]
        for bin_size in self.pyramids:
            #池化 x的尺寸分别为 1*1  2*2 3*3 6*6 通道数不变 与输入特征图一致
            #这么做点目的是保留全局信息,防止大块的目标中出现空洞,大目标检测不好 例如 马路 例如 天空
            x = F.adaptive_avg_pool2d(input, output_size=bin_size)
            # 将池化结果插值回原图大小
            x = F.interpolate(x, size=(height, width), mode='bilinear', align_corners=True)
            # 输入特征图与插值图像叠加
            feat  = feat + x
        return feat

class _ICHead(nn.Module):
    def __init__(self, nclass, norm_layer=nn.BatchNorm2d, **kwargs):
        super(_ICHead, self).__init__()
        self.cff_12 = CascadeFeatureFusion(512, 64, 128, nclass, norm_layer, **kwargs)
        #self.cff_12 = CascadeFeatureFusion(128, 64, 128, nclass, norm_layer, **kwargs)  
        self.cff_24 = CascadeFeatureFusion(2048, 512, 128, nclass, norm_layer, **kwargs)

        self.conv_cls = nn.Conv2d(128, nclass, 1, bias=False)

    def forward(self, x_sub1, x_sub2, x_sub4):
        outputs = list()
        # cff_24是论文中的CFF部分实现代码 这个是做最小和次小的特征融合呢
        # x_cff_24 shape [20, 128, 30, 30]   x_24_cls shape [20, 19, 30, 30]
        x_cff_24, x_24_cls = self.cff_24(x_sub4, x_sub2)
        outputs.append(x_24_cls)
        #x_cff_12, x_12_cls = self.cff_12(x_sub2, x_sub1)
        # 论文中的CFF部分实现代码 这个是做次小和最大的特征融合呢
        # # x_cff_12 shape [20, 128, 60, 60]   x_12_cls shape [20, 19, 60, 60]
        x_cff_12, x_12_cls = self.cff_12(x_cff_24, x_sub1)  
        outputs.append(x_12_cls)
        # x_cff_12 上采样一次           up_x2 shape [20, 128, 120, 120]
        up_x2 = F.interpolate(x_cff_12, scale_factor=2, mode='bilinear', align_corners=True)
        # 做一次loss函数需要的卷积       up_x2 shape [20, 19, 120, 120]     
        up_x2 = self.conv_cls(up_x2)
        outputs.append(up_x2)
        # up_x2 再做一次上采样  直接放大到原图大小
        # x_cff_12 上采样一次  up_x2 shape [20, 19, 480, 480]
        up_x8 = F.interpolate(up_x2, scale_factor=4, mode='bilinear', align_corners=True)
        outputs.append(up_x8)
        # 1 -> 1/4 -> 1/8 -> 1/16  将list反序
        outputs.reverse()
        # outputs 依次存放{[20, 19, 480, 480], [20, 19, 120, 120], [20, 19, 60, 60], [20, 19, 30, 30]}
        return outputs


class _ConvBNReLU(nn.Module):
    def __init__(self, in_channels, out_channels, kernel_size=3, stride=1, padding=1, dilation=1,
                 groups=1, norm_layer=nn.BatchNorm2d, bias=False, **kwargs):
        super(_ConvBNReLU, self).__init__()
        self.conv = nn.Conv2d(in_channels, out_channels, kernel_size, stride, padding, dilation, groups, bias)
        self.bn = norm_layer(out_channels)
        self.relu = nn.ReLU(True)

    def forward(self, x):
        x = self.conv(x)
        x = self.bn(x)
        x = self.relu(x)
        return x


class CascadeFeatureFusion(nn.Module):
    """CFF Unit"""

    def __init__(self, low_channels, high_channels, out_channels, nclass, norm_layer=nn.BatchNorm2d, **kwargs):
        super(CascadeFeatureFusion, self).__init__()
        self.conv_low = nn.Sequential(
            nn.Conv2d(low_channels, out_channels, 3, padding=2, dilation=2, bias=False),
            norm_layer(out_channels)
        )
        self.conv_high = nn.Sequential(
            nn.Conv2d(high_channels, out_channels, 1, bias=False),
            norm_layer(out_channels)
        )
        self.conv_low_cls = nn.Conv2d(out_channels, nclass, 1, bias=False)
    # 对应论文fig.3 
    def forward(self, x_low, x_high):
        # 先将 x_low特征图做双线性插值上采样                    对应fig.3 图中框1   
        # 例如对于cff_24   x_low 输入为[20, 2048, 15, 15] 输出为[20, 2048, 30, 30]
        x_low = F.interpolate(x_low, size=x_high.size()[2:], mode='bilinear', align_corners=True)
        # 再对x_low特征图做空洞卷积     结果通道为128           对应fig.3 图中框2
        # 例如对于cff_24   x_low 输入为[20, 2048, 30, 30] 输出为[20, 128, 30, 30]
        x_low = self.conv_low(x_low)
        # 对x_high特征图做 1*1的卷积    结果通道为128           对应fig.3 图中框3
        # 例如对于cff_24   x_high 输入为[20, 512, 30, 30] 输出为[20, 128, 30, 30]
        x_high = self.conv_high(x_high)
        # 求和做relu 作为输出数据之一                           对应fig.3 图中框4
        x = x_low + x_high
        x = F.relu(x, inplace=True)
        # 对空洞x_low特征图做直接做卷积并做BatchNorm2d 结果通道数为类别维度   用来算损失函数的  对应fig.3 图中 框5  
        # 代码与论文图对应不上了   按理应该是双线性插值的结果作为输入才对  
        # 例如对于cff_24   x_low 输入为[20, 128, 30, 30] 输出为[20, 19, 30, 30]
        # 按论文画的图 应该为  x_low 输入为[20, 2048, 30, 30] 输出为[20, 19, 30, 30]才对  改了训练一次看看效果  这块是
        # 这个代码我没看懂的地方之一
        x_low_cls = self.conv_low_cls(x_low)
        return x, x_low_cls


def get_icnet(dataset='citys', backbone='resnet50', pretrained=False, root='~/.torch/models',
              pretrained_base=False, **kwargs):
    acronyms = {
        'pascal_voc': 'pascal_voc',
        'pascal_aug': 'pascal_aug',
        'ade20k': 'ade',
        'coco': 'coco',
        'citys': 'citys',
    }
    from ..data.dataloader import datasets
    model = ICNet(datasets[dataset].NUM_CLASS, backbone=backbone, pretrained_base=pretrained_base, **kwargs)
    path = '/home/yuany/awesome-semantic-segmentation-pytorch-master/scripts/models/best.pth'
    pretrained = True
    if pretrained:
        from .model_store import get_model_file
        #device = torch.device(kwargs['local_rank'])
        device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
        #model.load_state_dict(torch.load(get_model_file('icnet_%s_%s' % (backbone, acronyms[dataset]), root=root),
        #                      map_location=device))
        model.load_state_dict(torch.load(path,
                              map_location=device))
    return model


def get_icnet_resnet50_citys(**kwargs):
    return get_icnet('citys', 'resnet50', **kwargs)


def get_icnet_resnet101_citys(**kwargs):
    return get_icnet('citys', 'resnet101', **kwargs)


def get_icnet_resnet152_citys(**kwargs):
    return get_icnet('citys', 'resnet152', **kwargs)


if __name__ == '__main__':
    img = torch.randn(1, 3, 256, 256)
    model = get_icnet_resnet50_citys()
    outputs = model(img)

Grave um novo e mais rápido. Primeiro salve a imagem e siga o código para ver o papel

Etapas completas: Eu quero fazer segmentação semântica principalmente na estrada, e o conjunto de dados selecionado são paisagens urbanas.

1. Prepare as paisagens urbanas do conjunto de dados. Basta descompactar o pacote compactado que precisa ser descompactado

2. Prepare o código, o link no github https://github.com/Tramac/awesome-semantic-segmentation-pytorch

3. Após descompactar, entre na pasta de scripts, dentro, há um arquivo de trem. A pasta principal armazena o modelo. Todos os tipos de modelos de segmentação semântica estão nele, e os itens de seleção podem ser vistos na lista de parâmetros do trem.

4. Modifique o caminho em cityscapes.py: coloque diretamente as paisagens urbanas do conjunto de dados sob o caminho dos conjuntos de dados ../ datasets / cityscapes

5. Também alterei o arquivo citys em conjuntos de dados e coloquei o caminho. Por exemplo, meu caminho é; / home / yuany / awesome-semantic-segmentation-pytorch-master / datasets / cityscapes. Não prestei atenção em qual dos esses dois caminhos funcionam.

6. Em seguida, insira o comando train. Por exemplo, meu modelo escolhe a rede de backbone icnet para escolher resnet50, o conjunto de dados escolhe as cidades, a taxa de aprendizado inicial é 0,01, o número de iterações é 30000, então o comando é o seguinte:

python train.py --model icnet --backbone resnet50 --dataset citys --lr 0,01 --epochs 30000

7. O modelo treinado está na pasta de modelos, lá está um dos melhores e um dos mais recentes

8. Use: pressione diretamente demo para usar, defina o caminho da imagem a ser dividida. Apenas dividir, eu defino o caminho para carregar o modelo no icnt, o que é conveniente para a imagem

 

 

 

Acho que você gosta

Origin blog.csdn.net/gbz3300255/article/details/111545273
Recomendado
Clasificación