ペーパー ノート: 完全な波形反転のための教師なし学習: CNN と偏微分方程式をループにする

要約: 論文の理解を共有するために、元のテキストは、Peng Jin、Xitong Zhang、Yinpeng Chen、Sharon Xiaolei Huang、Zicheng Liu、Youzuo Lin、Unsupervised learning of full waveform inversion: connected CNN and偏微分方程式にあります。この論文は
The top meeting in computer science is ICLR に掲載されました。

1. 論文投稿

  • 教師なし FWI ネットワークが提案されています. 実際、その教師情報 (速度モデル) は、フォワード モデリングによって得られたデータと元のデータとの間の損失を計算できるため、「教師なし」と言うのは少し大げさです.
  • 別の論文で特別に紹介されているデータ セット OpenFWI を作成しました.これは、この方向の研究者にとって非常に重要です.

2.論文作業

図 1. メソッド フレームワーク
  • 反転のための CNN
  • PDE によるフォワード モデリング

2.1 フォワードモデリング

∇ 2 p ( r , t ) − 1 v ( r ) 2 ∂ 2 p ( r , t ) ∂ t 2 = s ( r , t ) (1) \nabla^2 p(\mathbf{r}, t) - \frac{1}{v(\mathbf{r})^2} \frac{\partial^2 p(\mathbf{r}, t)}{\partial t^2} = s(\mathbf{r }, t) \タグ{1}2 p(r,t )v ( r )21∂t _22 p(r,t )=s ( r ,t )( 1 )
ここでp ( r , t ) p(\mathbf{r}, t)p ( r ,t )はttです時間t、位置r \mathbf{r}r , v ( r ) v(\mathbf{r})の圧力波動場v ( r )は速度グラフs ( r , t ) s(\mathbf{r}, t)s ( r ,t )はソース項目です.
フォワード モデリング プロセスは
p ~ = f ( v ^ ) (2) \tilde{\mathbf{p}} = f(\hat{\mathbf{v}}) \tag{2}p=f (v^ )( 2 )
標準的有限差分法
∂ 2 p ( r , t ) ∂ t 2 ≈ 1 ( Δ t ) 2 ( prt + 1 − 2 prt + prt − 1 ) + O ( ( Δ t ) 2 ) (5) \frac{\partial^2 p(\mathbf{r}, t)}{\partial t^2} \approx \frac{1}{(\Delta t)^2} \left(p_\mathbf{r} ^{t + 1} - 2 p_\mathbf{r}^t + p_\mathbf{r}^{t - 1} \right) + O((\Delta t)^2)\tag{5}∂t _22 p(r,t )( Δt ) _21( prt + 12p _rt+prt 1)+( ( t ) _2 )( 5 )
ここでprt p_\mathbf{r}^tprtttを意味します時間tにおける波動場prt + 1 p_\mathbf{r}^{t + 1}prt + 1t + Δtt + \Delta tを意味しますt+Δt時間.OO_O は同じ順序を示し、該当するデータは破棄されます。

連鎖律によれば、損失L は計算できます \mathcal{L}L対応する速度の勾配
∂ L ∂ v ( r ) = ∑ t = 0 T [ ∂ L ∂ p ( r , t ) ] ∂ p ( r , t ) ∂ v ( r ) (7) \frac{\partial \mathcal{L}}{\partial v(\mathbf{r})} = \sum_{t = 0}^T \left[\frac{\partial L}{\partial p(\mathbf{r}, t )}\right] \frac{\partial p(\mathbf{r}, t)}{\partial v(\mathbf{r})} \tag{7}v ( r )∂L _=t = 0T[p ( r ,t )∂L _]v ( r )p ( r ,t )( 7 )

2.2 反転損失関数

L ( p , p ~ ) = L ピクセル ( p , p ~ ) + 知覚 L ( p , p ~ ) (8) \mathcal{L}(\mathbf{p}, \tilde{\mathbf{p}}) = \mathcal{L}_{\textrm{pixel}}(\mathbf{p}, \tilde{\mathbf{p}}) + \mathcal{L}_{\textrm{perceptual}}(\mathbf{p} }, \tilde{\mathbf{p}}) \tag{8}L ( p ,p)=Lピクセル( pp)+L知覚的な( pp)( 8 )
ここでp \mathbf{p}pp ~ \tilde{\mathbf{p}}pはそれぞれ入力と再構築された地震波データを表します. l 1 \mathcal{l}_1
を使用できます.l1l 2 \mathcal{l}_2l2ピクセル損失を定義するノルム加重和
L pixel ( p , p ~ ) = λ 1 l 1 ( p , p ~ ) + λ 2 l 2 ( p , p ~ ) (9) \mathcal{L}_{\ textrm {pixel}}(\mathbf{p}, \tilde{\mathbf{p}}) = \lambda_1 \mathcal{l}_1(\mathbf{p}, \tilde{\mathbf{p}}) + \ lambda_2 \mathcal{l}_2(\mathbf{p}, \tilde{\mathbf{p}}) \tag{9}Lピクセル( pp)=l1l1( pp)+l2l2( pp)( 9 )
L perceptual ( p , p ~ ) = λ 3 l 1 ( ϕ ( p ) , ϕ ( p ~ ) ) + λ 4 l 2 ( ϕ ( p ) , ϕ ( p ~ ) ) (9) \mathcal {L}_{\textrm{perceptual}}(\mathbf{p}, \tilde{\mathbf{p}}) = \lambda_3 \mathcal{l}_1(\phi(\mathbf{p}), \phi (\tilde{\mathbf{p}})) + \lambda_4 \mathcal{l}_2(\phi(\mathbf{p}), \phi(\tilde{\mathbf{p}})) \tag{9 }L知覚的な( pp)=l3l1( φ ( p ) ,φ p) )+l4l2( φ ( p ) ,φ p) )( 9 )
ここでϕ ( ⋅ ) \phi(\cdot)ϕ ( ) は、 ImageNet でトレーニングされた VGG-16 特徴抽出ネットワークを表します。

3. 関連作品

  • 物理ドライブ
  • データ駆動型

4. まとめ

前進と後進、二足歩行。

おすすめ

転載: blog.csdn.net/minfanphd/article/details/127995185