Notas de papel EfficientNet

Notas de papel EfficientNet

Balanceamos canal, profundidade e resolução por meio do NAS e descobrimos que, nos mesmos FLOPs, aumentar a profundidade e a resolução ao mesmo tempo tem o melhor efeito.

O que devo fazer se o efeito do conjunto de dados for menor que a resolução?

figura 4imagem

Estrutura EfficientNet — b0

Cada MBConv na tabela será seguido por um número 1 ou 6. O 1 ou 6 aqui é o fator de ampliação n. Ou seja, a primeira camada de convolução 1x1 no MBConv expandirá os canais da matriz de recursos de entrada para n vezes , onde k3x3 ou k5x5 representa o tamanho do kernel de convolução usado pelo Depthwise Conv no MBConv. Canais representa os canais que geram a matriz de recursos após passar pelo palco.

EficienteNetb0

Estrutura MBConv

mbblock

Função de ativação Swish + módulo SE

  1. A primeira camada de convolução 1x1 dimensionalmente ascendente tem n vezes o número de núcleos de convolução como canal de matriz de recursos de entrada.Esta camada não é necessária quando n é igual a 1.
  2. Usado somente quando a matriz de recursos da estrutura MBConv de entrada tem o mesmo formato que a matriz de recursos de saída. Na implementação do código-fonte, existe uma camada Dropout apenas quando o atalho é usado.

Módulo SE:

A primeira função de ativação é substituída pela função de ativação Swish

semódulo

Parâmetros detalhados para outras versões:

Insira a descrição da imagem aqui

  1. input_sizeRepresenta o tamanho da imagem da rede de entrada ao treinar a rede
  2. width_coefficientRepresenta o fator de ampliação na dimensão do canal. Por exemplo, o número de núcleos de convolução usados ​​na camada de convolução 3x3 do Estágio1 em EfficientNetB0 é 32, então em B6 é 32 × 1,8 = 57,6 e então arredondado para o número inteiro mais próximo de 8. Os tempos são 56, e o mesmo se aplica às demais etapas (operações aceleradas).
  3. depth_coefficientRepresenta o fator de ampliação na dimensão de profundidade (somente para Stage2 a Stage8).Por exemplo, em EfficientNetB0, Li=4 para Stage7, então em B6 é 4 (bloco) × 2,6 = 10,4 e depois arredondado para 11
  4. drop_connect_rateé o drop_rate usado pela camada de dropout na estrutura MBConv.
  5. dropout_rateÉ o dropout_rate da camada de dropout antes da última camada totalmente conectada (entre Pooling e FC no estágio 9).

NAS:Pesquisa de Arquitetura Neural

aprendizagem por reforço

imagem

Acho que você gosta

Origin blog.csdn.net/qq_52038588/article/details/131703488
Recomendado
Clasificación