2019年11月21日残留ラーニング論文の研究

  1. 難易度のニューラルネットワークの深さのトレーニング:
  • 爆発勾配/勾配が消滅し
    、この問題に対するbatchnormシリーズ方式より優れたソリューション
  • ネットワークモデルの低下(劣化)を深めます
  1. 分解(劣化)に起因するネットワークの問題を解決するためにモデルを深めることが重要残留。

  2. アイデアは非常に単純である、ネットワークパフォーマンスの浅い深さは、私はちょうどネットワークを強化するために同等の地図(IDマッピング)を使用する場合ので、ネットワークのパフォーマンスは確かに浅いよりも悪いではない、より良いネットワークの性能を超えています。

おすすめ

転載: www.cnblogs.com/Research-XiaoEMo/p/11922359.html