PyTorchで事前訓練された画像分類器のための画像処理に関する質問

DanielOh:

私はPyTorchにおける画像分類のための人気の事前訓練を受けたVGGモデルを使用しますが、画像が256にリサイズされていることに気づいたとプログラムのほとんどで前処理画像のために224にそれをトリミングしようとしています。私たちは最初に256にサイズを変更し、直接224にサイズを変更するのではなく、それをトリミングなぜ興味があります。

transforms = transforms.Compose([transforms.Resize(256), 
                                 transforms.CenterCrop(224),
                                 transforms.ToTensor(),
                                 transforms.Normalize([0.485, 0.456, 0.406], 
                                                     [0.229, 0.224, 0.225])])
健康:

画像分類タスクのために、典型的には、関心のあるオブジェクトが画像の中心に位置しています。したがって、(正確な前処理は、ネットワークが訓練されたかに強く依存し、これは、しかし、一般的には適用されません)いくつかの境界線を切り取った画像の中央作物を取るために(推論のための)一般的な方法です。

「なぜトリミングやリサイズ、直接ではない」あたりのように、これはトレーニング中のデータ増加の副産物である:画像のランダムな作物を取ることは非常に一般的なデータ増強技術です。あなたは異なる「フォーマット」を持っているデータに評価しているので、推論時には、入力サイズに画像全体のサイズを変更する代わりに、作物を適用すると、マイナスのネットワークのパフォーマンスに影響を与えた画像、(内のオブジェクトの規模に影響を与えます1)あなたは上で訓練を受けたとCNNsはスケール不変ではありません。

おすすめ

転載: http://43.154.161.224:23101/article/api/json?id=320600&siteId=1