写真画像分類パラメータ調整のウォン・カム防衛

インターネットの発展に伴い、インターネットコンテンツのセキュリティは顔に持っていた深刻な課題となっています。サイトの閉じ過多を命じられた「法学」に、コミュニティ、ユーザーが不均一な品質を上がるので、「カム・ウォン」も非常に重要です。各高速インターネット企業は、コンテンツのレビューを行うための専用のスタッフを持っていますが、コンテンツの開発に追いつくことはできませんが、監査マニュアルのレビューを疑問視するのは簡単では、タイムリーなコストではなく、他の主観的な判断は、結果が表示されます影響を及ぼす。

だから、学ぶために、人工知能技術によってカムウォンの深さを想像することが差し迫っています。画像カテゴリの5種類の合計を含む本データセットに、各画像は、少なくとも1,000、有する請求項6のトレーニングセットとテストセット検証セット分周比:2:2。 

分析:出力フィーチャ寸法レース5題する画像分類、予備選択resnet50、vgg19、densenetテストスコア、事前訓練重みの使用、変更ソフトマックス出力層5。

 

コアアイデア(およびハイライトの前処理データ、データ拡張、モデル選択、最適化モデル、モデルの統合を含むがこれらに限定されないキー溶液法)

次のようにresnextネットワークを用いてさらに試みた後、オープン重量を使用して(githubのから)スケジュールの詳細は以下のとおりです。 

  • ネットワークresnext101_32x16とpretrained重みの選定:, pytorch関連ライブラリの実装を引用し、
  • 画像変換:左右反転確率が0.5です。 
  • フリーズネットワーク層:最初の5つの層(この大会のタイトル最高の結果)。以前の経験の基準パラメータ調整次のようにシナリオ:小さなデータセットを、データの類似度が、この場合に高くはないが、我々は重量でプレ誘電層事前学習モデルを凍結することができ、その後、再訓練のNK層裏面、もちろん、最後の層の必要性は、対応する出力形式に応じて変更されます。  
  • そのため、データの類似性の高くない、再訓練の過程が重要になります。新しいデータセットのサイズの欠如は、それが凍結された事前研修モデルの事前k層で構成されています。 
  • )torch.optim.lr_scheduler.CosineAnnealingLR( - コサインアニール戦略:画像サイズ:2245は、学習率を減少させました

 

経験収穫(収穫の競争、経験値、ゲームのスキル) 

  • モデルと重みの選択は、画像分類finetuningの目的にとって非常に重要です。適切なネットワーク型高精度に寄与し、開始前のトレーニングモデルは、ACCと収束速度、大域的最適に速く収束を判定する。 
  • 画像サイズは、その後、一般的には、あまりにも多くのメモリが十分でない場合、それはBATCH_SIZEを減らす必要があり、ほぼ224 ACCに影響を与える可能性があります。
  • 減衰率、政策の選択肢.CosineAnnealingを降順ご覧ください。関連の方法はpytorchレーンにカプセル化されています。
  • 画像変換、そしてあなたは、1つのまたは2つの簡単かつ効率的に選択することができます。センターは、例えば、水平方向、垂直方向の反転、アフィン変換、中心画素消去約回転クリッピング。最後に、その後、ステージレースの終わりに、我々はいくつかの回を提出することは可能な限り、0ビットを強化するために運に依存する必要があります。対応する方法は、このパッケージtorchvisonで見つけることができます。

この記事では、使用して、元のコンテンツの著作者FlyAIプラットフォームのリリースで、クリエイティブコモンズ帰属-非営利-改変禁止について4.0国際ライセンス契約、再現ライセンスは、オリジナルのソースリンクと、この文を添付してください。
このリンクアドレス(説明するための直接ビデオ):https://www.flyai.com/n/97740

公開された35元の記事 ウォン称賛22 ビュー50000 +

おすすめ

転載: blog.csdn.net/iFlyAI/article/details/105126209