índice
O seguinte é o algoritmo derivado dele
Calculando uma camada de convolução
Por que usar uma função de ativação de rede neural?
Normalização de resposta local
Normalização de resposta local LNN
Prefácio:
Este artigo é um artigo de 12 anos, mas tem uma citação de até 6 W. É a pedra angular do trabalho de visão computacional.
Então é necessário ler
O seguinte é o algoritmo derivado dele
Cálculo da camada convolucional
Página de sentimento
Camada de pooling
(Pooling, downsampling)
Pode prevenir overfitting
Construção de rede neural
Por que as redes neurais usam funções de ativação?
Como a função de ativação é não linear , é precisamente porque a função de ativação não linear introduz a não linearidade no modelo da rede neural e pode resolver o problema de classificação não linear.
No entanto, funções saturadas tradicionais, como sigmóide e tanh, e funções de ativação insaturadas podem resolver o problema de desaparecimento do gradiente .
A figura a seguir completa a saída da rede neural por meio de dois neurônios
normalização softmax
Há um lugar interessante neste papel
Normalização de resposta local
Cada valor é normalizado, o que pode inibir efetivamente os neurônios locais
Dê um exemplo específico
Normalização de resposta local LNN
Pode alcançar o efeito:
Inibir ativação próxima
No entanto, a camada LRN foi derrubada e não há uso para X
A expansão de dados pode efetivamente prevenir e reduzir métodos de sobreajuste
Cair fora
Sufocada aleatoriamente, cada camada de eliminação tem 0,5 substituído por 1
Se não for necessário, não aumente a entidade --- o princípio da navalha
referências:
- estação b
- Papel AlexNet