エラーを記録します --- U-net ネットワークでサイズが一貫していない画像を入力したいと考えています。


最近 Deeplab シリーズの論文を読んでいたのですが、セマンティック セグメンテーションの分野における難しい問題は、画像をネットワークに入力する前に、画像を均一なサイズにリサイズする必要があるということですが、リサイズすると損失が発生するという内容でした。詳細情報が含まれるため、ネットワークがあらゆるサイズの画像入力を処理できるようにしたいと考えています。以前にトレーニングした U-net ネットワークはすべて 224*224 にサイズ変更されていたため、サイズ変更せずに実験して、データを直接 Totensor() に渡し、正規化してネットワークに直接投入したかったのですが、確かにエラーが報告されました。
ここに画像の説明を挿入します
Pytorch で . を確認した後
1. DataLoader のデフォルトの Collat​​e_fn は、各サンプルが同じ形状を持ち、直接スタックされることを前提とします 2.
モデルの入力層も、通常、入力が固定形状のテンソルであることを前提とします 3.
多くの画像操作関数 (torchvision.transforms など) も画像の形状が同じである必要があるため、
トレーニング プロセス中に任意のサイズの画像のこの種の処理をどのように実装すればよいのか、非常に混乱します。それとも、データローダーが必要ないため、テスト中に任意のサイズの画像を処理できるというだけですか。

おすすめ

転載: blog.csdn.net/weixin_47250738/article/details/133164861