ResNeXt:ディープ・ニューラルネットワークのための集約残留変換

主な理由は、著者がResNeXtを提案することである:深めるまたはネットワークを広げることで、従来のモデルの精度を改善するために、しかし、ネットワーク設計及び難易度の算出(そのようなチャネルの数、フィルタサイズなど)超パラメータの増加とコストが増加します。したがって、提案された
ResNeXt構造は、パラメータの複雑さを増加させることなく、精度を向上させるだけでなく、超パラメータ(話すの背面等サブモジュールのトポロジーのおかげで)の数を減らすことができます。

ResNetもアイデアを借りて前に著者はまず、達成するために紙VGG、VGG主にスタック可能なネットワークで述べました。インセプションシリーズのネットワークを言及し、単に、分割・変換・マージ戦略ですが、インセプションシリーズネットワークに問題があります。他のデータセットに適用される対象と比較的強いのネット​​ワーク設定のウルトラパラメータは、多くを変更する必要がありますパラメータ、スケーラビリティの一般的。

ここでの焦点は、著者が分割・変換・マージのアイデアのアイデアやインセプションのVGGスタックを使用しながら、本論文ではネットワークResNeXtを提案したが、比較的強い拡張することができ、実質上変えずに正解率を向上することが考えられるので、またはモデルの複雑さを軽減。カーディナリティとの用語は、本明細書、オリジナルの解釈であると呼ばれる
変換のセットのサイズ、FIG1は、以下の各音符が同じトポロジーを重合させる正しい方法基数= 32、である(これはまた、インセプションの間の差であります設計の負担を軽減

深さと幅を増やすよりも、より効果的に理解するためにカーディナリティポイントを増やします。

もちろん、いくつかのデータがあり、例えば、元の単語、優位ResNeXtネットワークを実証する:特に、101層ResNeXtはResNet-200よりも優れた精度を達成することができるだけ50%の複雑性を有します。

表1は、内部構造ResNet-50及びResNeXt-50、及び更なる説明は、複雑度パラメータ差両者の最後の2行ではない含みます。
 
次に、著者は、例えば完全に接続された層(インナー製品)が懸念され、提案された新しいブロックに話し始めた、私たちは、この式は以下完全に接続された層であることを知っています:


おすすめ

転載: www.cnblogs.com/ziwh666/p/12483765.html