ビデオオブジェクトセグメンテーションダブルピラミッドネットワークベースの研究ノート

キーワード 

機械学習方法の広がりのラベルの使用

このアルゴリズムは、以前に提案されました

1.空間と時間の集中的なバイラテラルフィルタリングネットワークのための時間。
2つだけマスクは訓練されたネットワークの深さによって静止画を精製し、試験で対象に第1のフレームメモリのテストビデオを使用しています
外観(すなわちオンラインの微調整)、性能を向上させるようになっています。
大量のデータによる高精度強化セグメンテーション戦略を達成するために3。
 
ピラミッドの最大の利点は、コンボリューション法の微調整ではありません
以下は基本的な考え方であります
  
 
 
ネットワークセグメンテーションはVGG16に基づいています
[16]完全畳み込みネットワーク、及び、に加えて
4つのVGG16変調動作を追加する前に、すべての層の外側の畳み込み、特定のトーン
そして、成形工程のパラメータは、以下に記載されています。
与えられたターゲットの外観に対応する視覚的なネットワークを分割するための変調器と、から
例えば、種類、色、形状、質感、意味情報を抽出するために与えられたフレームに注意してください
リー、図の異なるチャネルの特性を調整するために、対応するチャネルのスケールパラメータを生成します。
このような分割ネットワークにおける所定の標的[14]その場所に再配置重み。
最初のフレームの使用本明細書VGG16ニューラルネットワークモデル変調視覚画像として
入力として、224×224画素の目標サイズの周りに切断し、最終的に修正します
分類の一つの層のために、ネットワーク分割変調層のパラメータの数と一致します。
すべてのパラメータは式(1)の具体的な発現を示す視覚的な変調特性図で乗算されます
表示します。
空間変調器は、対象物体の画素レベルオフセットパラメータがである生成します
オブジェクトに関する事前情報の大まかな位置を提供します。図それによって得、前フレーム上の2次元熱予測マスクを生成するために、本明細書
次いで、空間変調器の入力として、目標位置の概算を得ました。あります
図は、ネットワーク解像度のセグメンテーションの異なる特徴に一致する、2つの空間変調器
異なるスケールでサンプリングされ、従って、各コンボリューションに相当する層を得た三次元図の熱
図空間変調パラメータとそれぞれの層が付加された空間変位パラメータ、
今、この記事の方法は、方法のvgg16に基づいているように見える二つの行列とそれぞれ、視覚的なパラメータを表す、およびオフセットパラメータ
次に式に従って
Fcnは、完全な畳み込みニューラルネットワークを使用した後、決定された後
フィルム紙のための定性的結果
2.5定性的な結果
図3では、これは部分(図を遮断する提案された方法を示しています。
図3(a))、雑然とした背景(図3(b)参照)、モーションブラー(図3(c))と
カイトサーフィン配列上図の効果試験(図3(d)参照)。部分的に閉塞
ターゲット部分を遮られることがない場合のみ分割は、乱雑な背景であることが
同様の目的の分離、モーションブラーニーズの場合には、ターゲットと背景には、
漠然とした標的部位は、より細かく分割します。この場合のアルゴリズムで
下正確特にカイトサーフ配列におけるセグメント所与のターゲットは、であってもよいことができ
より正確に小さな図をターゲットに分割。図から小さいことがわかる。図3(d)
実際のターゲットセグメンテーションマップラベルはより完全になる方法を、まだいくつかのギャップです
ローカルな情報(例えば、関心領域のいくつかの特徴点など)、全体を使用して
ボード情報(インタレストカテゴリの地域、色と質感意味情報など)
これは、次の研究の方向のいずれかになります。

おすすめ

転載: www.cnblogs.com/coolwx/p/11517306.html