ファイングレイン分類

1、時に使用するには?

異なるサブクラスのための同じクラスに分類されています

注意:クラス内のギャップの拡大

  • セマンティックセグメンテーション緻密予測のための(セマンティックセグメンテーション)(密な予測)は、オブジェクト内の各ピクセルは、このようにして、領域またはピクセルが対応するクラスとしてマークされているベースのラベルを推測しました。
  • オブジェクトを分割(例えば分割)も分割部クラスがさらに底部層に分割されるセグメント化されている(一部基づくセグメンテーション)部分、に基づいて、同じクラスの異なるオブジェクトを標識。

 

 

2、自然:どのように効果的にフォアグラウンドオブジェクトが検出され、重要な地域情報を探します

 

3、分類

基づいて、強力な監督と情報きめ細かい画像分類モデル:

             カテゴリラベル画像に加えて、より良好な分類精度を得るために、また、コールアウトボックスオブジェクト(オブジェクト境界ボックス)と部分マーク点(一部注釈)追加の手動注釈情報などを使用

                                    

 

部分系R-CNN [1]:

目的:ファイングレイン・オブジェクト・レベルの画像(例えば、鳥)、およびその部分検出領域(頭、胴体及びその他の部品)の

結果:1)きめ細かな画像オブジェクトのバウンディングボックスと一部注釈モデルを用いたが3つの検出(検出モデル)、検出オブジェクトに対応するきめ細かいレベル、検出ヘッドに対応するオブジェクト、検出に対応する他の身体部分を訓練することができます

           2)3つの検出モデルは、位置検出枠プラス幾何学的制約、例えば、頭部及び胴体一般向き、それほど遠くない位置ずれ等を得ました。したがって、理想的なオブジェクト/部位検出結果を得ることができる(図右)

            3)入力し、各トレーニングCNNとして得られた画像ブロック(画像パッチ)は、CNNは、オブジェクト/サイトの特徴を学習することができます。最終層が完全に3つの連結機能(CONCATENATE)に接続されていることを表し全体きめ細かい特徴画像として

 

正規化されたCNNのポーズ[3]:

                         

結果:1)きめ細かな画像オブジェクトのバウンディングボックスと一部注釈モデルを用いたが3つの検出(検出モデル)、検出オブジェクトに対応するきめ細かいレベル、検出ヘッドに対応するオブジェクト、検出に対応する他の身体部分を訓練することができます

           2)3つの検出モデルは、位置検出枠プラス幾何学的制約、例えば、頭部及び胴体一般向き、それほど遠くない位置ずれ等を得ました。したがって、理想的なオブジェクト/部位検出結果を得ることができる(図右)

           3)Pose Normalized CNN对部位级别图像块做了姿态对齐操作,并且针对细粒度图像不同级别的图像块(不同部位),提取不同层的卷积特征(例如,很对全局特征,提取了fc8的特征)

 

Mask-CNN [4]:

结果: 1、第一个实现端到端的训练

       2、仅依靠训练时提供的part annotation(不需要bounding box,同时测试时不需额外监督信息)取得了目前细粒度图像分类最高的分类精度

 

 

 

2 、基于弱监督信息的细粒度图像分类模型 :

目标:希望在模型训练时仅使用图像级别标注信息,而不再使用额外的part annotation信息

  • Two Level Attention Model [5]

 

说明:1、预处理模型:从输入图像中产生大量的候选区域,对这些区域进行过滤,保留包含前景物体的候选区域

          2、候选区域大小不一,有些可能包含了头部,有些可能只有脚。此时对这些特征进行谱聚类,得到k个不同的聚类簇

 

 

Bilinear CNN [7]:

网络A:对物体进行定位, 即完成传统算法的对象与局部区域检测工作

网络B:对网络A检测到的物体位置进行特征提取

                         

B=(fA,fB,P,C)B=(fA,fB,P,C),其中fA,fBfA,fB为来个不同的特征,P为Pooling操作,C表示分类器;对特征的每一个位置ll,进行如下计算。 

 

おすすめ

転載: blog.csdn.net/weixin_38740463/article/details/91818112