Leitura clássica em papel com visão computacional --- notas de leitura de papel AlexNet

índice

Prefácio:

O seguinte é o algoritmo derivado dele

Calculando uma camada de convolução

Camada de pooling

Construção de rede neural

Por que usar uma função de ativação de rede neural?

normalização softmax

Normalização de resposta local

Normalização de resposta local LNN

Cair fora

referências:


Prefácio:

Este artigo é um artigo de 12 anos, mas tem uma citação de até 6 W. É a pedra angular do trabalho de visão computacional.

Então é necessário ler

O seguinte é o algoritmo derivado dele

Cálculo da camada convolucional

Página de sentimento

Camada de pooling

(Pooling, downsampling)

Pode prevenir overfitting

 

Construção de rede neural

Por que as redes neurais usam funções de ativação?

Como a função de ativação é não linear , é precisamente porque a função de ativação não linear introduz a não linearidade no modelo da rede neural e pode resolver o problema de classificação não linear.

No entanto, funções saturadas tradicionais, como sigmóide e tanh, e funções de ativação insaturadas podem resolver o problema de desaparecimento do gradiente .

A figura a seguir completa a saída da rede neural por meio de dois neurônios

normalização softmax

Há um lugar interessante neste papel

 

Normalização de resposta local

Cada valor é normalizado, o que pode inibir efetivamente os neurônios locais

Dê um exemplo específico

Normalização de resposta local LNN

Pode alcançar o efeito:

Inibir ativação próxima

No entanto, a camada LRN foi derrubada e não há uso para X

A expansão de dados pode efetivamente prevenir e reduzir métodos de sobreajuste

Cair fora

Sufocada aleatoriamente, cada camada de eliminação tem 0,5 substituído por 1

Se não for necessário, não aumente a entidade --- o princípio da navalha

referências:

  • estação b
  • Papel AlexNet

Acho que você gosta

Origin blog.csdn.net/qq_37457202/article/details/107717876
Recomendado
Clasificación