主な理由は、著者がResNeXtを提案することである:深めるまたはネットワークを広げることで、従来のモデルの精度を改善するために、しかし、ネットワーク設計及び難易度の算出(そのようなチャネルの数、フィルタサイズなど)超パラメータの増加とコストが増加します。したがって、提案された
ResNeXt構造は、パラメータの複雑さを増加させることなく、精度を向上させるだけでなく、超パラメータ(話すの背面等サブモジュールのトポロジーのおかげで)の数を減らすことができます。
ResNetもアイデアを借りて前に著者はまず、達成するために紙VGG、VGG主にスタック可能なネットワークで述べました。インセプションシリーズのネットワークを言及し、単に、分割・変換・マージ戦略ですが、インセプションシリーズネットワークに問題があります。他のデータセットに適用される対象と比較的強いのネットワーク設定のウルトラパラメータは、多くを変更する必要がありますパラメータ、スケーラビリティの一般的。
ここでの焦点は、著者が分割・変換・マージのアイデアのアイデアやインセプションのVGGスタックを使用しながら、本論文ではネットワークResNeXtを提案したが、比較的強い拡張することができ、実質上変えずに正解率を向上することが考えられるので、またはモデルの複雑さを軽減。カーディナリティとの用語は、本明細書、オリジナルの解釈であると呼ばれる
変換のセットのサイズ、FIG1は、以下の各音符が同じトポロジーを重合させる正しい方法基数= 32、である(これはまた、インセプションの間の差であります設計の負担を軽減
深さと幅を増やすよりも、より効果的に理解するためにカーディナリティポイントを増やします。
もちろん、いくつかのデータがあり、例えば、元の単語、優位ResNeXtネットワークを実証する:特に、101層ResNeXtはResNet-200よりも優れた精度を達成することができるだけ50%の複雑性を有します。