\qquad
本文只是从一般的图像处理角度来看待Markov模型,并未从图模型的角度入手,主要参考《Markov.Random.Field.Modeling.In.Image.Analysis》一书。
1. 贴标签问题(Labeling problem)
\qquad
给定一系列的位置
(
s
i
t
e
)
(site)
( s i t e ) 和一系列的标签
(
l
a
b
e
l
)
(label)
( l a b e l ) ,贴标签问题
(
L
a
b
e
l
i
n
g
P
r
o
b
l
e
m
)
(Labeling\ Problem)
( L a b e l i n g P r o b l e m ) 是指,为每个地点贴上一个标签。
假设
S
=
{
s
1
,
⋯
,
s
n
,
⋯
,
s
N
}
\mathcal S=\{s_{1},\cdots,s_{n},\cdots,s_{N}\}
S = { s 1 , ⋯ , s n , ⋯ , s N } 表示具有
N
N
N 个位置 的离散位置集
(
d
i
s
c
r
e
t
e
s
i
t
e
s
e
t
)
(discrete\ site\ set)
( d i s c r e t e s i t e s e t ) ,
L
=
{
l
1
,
⋯
,
l
m
,
⋯
,
l
M
}
\mathcal L=\{l_{1},\cdots,l_{m},\cdots,l_{ M}\}
L = { l 1 , ⋯ , l m , ⋯ , l M } 表示具有
M
M
M 个标签 的离散标签集
(
d
i
s
c
r
e
t
e
l
a
b
e
l
s
e
t
)
(discrete\ label\ set)
( d i s c r e t e l a b e l s e t )
对于位置集
S
\mathcal S
S 中的任意一个位置
s
n
s_{n}
s n ,都可以从标签集
L
\mathcal L
L 中选择一个标签
l
m
l_{m}
l m 、给位置
s
n
s_{n}
s n “贴上一个标签”
(
l
a
b
e
l
i
n
g
)
(labeling)
( l a b e l i n g )
\qquad
例如,对于一幅
N
×
N
N\times N
N × N 大小的灰度图像 而言:
(
1
)
\qquad(1)
( 1 ) “位置集” 可表示为
S
=
{
(
i
,
j
)
∣
∀
i
,
j
∈
{
1
,
2
,
⋯
,
N
}
}
\mathcal S=\{(i,j)\ |\ \forall\ i,j\in\{1,2,\cdots,N\}\ \}
S = { ( i , j ) ∣ ∀ i , j ∈ { 1 , 2 , ⋯ , N } }
(
2
)
\qquad(2)
( 2 ) “标签集” 可表示为
L
=
{
l
∣
0
,
1
,
⋯
,
255
}
\mathcal L=\{l\ |\ 0,1,\cdots,255\}
L = { l ∣ 0 , 1 , ⋯ , 2 5 5 }
\qquad
因此,贴标签问题 相当于定义了一个映射
φ
\varphi
φ :
φ
:
S
→
L
\varphi:\mathcal S \rightarrow \mathcal L
φ : S → L
φ
(
i
,
j
)
=
l
\ \ \ \ \ \varphi(i,j)=l
φ ( i , j ) = l 或
φ
(
s
n
)
=
l
m
\varphi(s_{n})=l_{m}
φ ( s n ) = l m
\qquad
显然,对于一副
N
×
N
N\times N
N × N 大小的灰度图像,任意
(
i
,
j
)
(i,j)
( i , j ) 处像素的灰度值都可能是标签集
L
\mathcal L
L 中元素
0
∼
255
0\sim255
0 ∼ 2 5 5 中的一个(即:任一位置像素的灰度值具有
256
256
2 5 6 种可能),对整幅图像而言、就存在
25
6
N
2
256^{N^{2}}
2 5 6 N 2 种可能的贴标签方式 。我们把其中任意一种贴标签的方式称为一种配置
(
c
o
n
f
i
g
u
r
a
t
i
o
n
)
(configuration)
( c o n f i g u r a t i o n ) ,任何一副
N
×
N
N\times N
N × N 大小的灰度图像必然是这
25
6
N
2
256^{N^{2}}
2 5 6 N 2 种配置中的一种。
\qquad
2. 邻域系统和子团(Neighborhood System and Cliques)
\qquad
位置集
S
=
{
s
1
,
⋯
,
s
N
}
\mathcal S=\{s_{1},\cdots,s_{N}\}
S = { s 1 , ⋯ , s N } 上的一个位置
s
i
s_{i}
s i 是通过邻域系统
(
N
e
i
g
h
b
o
r
h
o
o
d
S
y
s
t
e
m
)
(Neighborhood\ System)
( N e i g h b o r h o o d S y s t e m ) 和另一个位置
s
j
s_{j}
s j 建立联系。
2.1 邻域系统
\qquad
位置集
S
\mathcal S
S 上的邻域系统 可定义为:
N
=
{
N
s
i
∣
∀
s
i
∈
S
}
\mathcal N=\{\mathcal N_{s_{i}}\ |\ \forall\ s_{i}\in\mathcal S\}
N = { N s i ∣ ∀ s i ∈ S } ,其中
N
s
i
\mathcal N_{s_{i}}
N s i 是邻近
s
i
s_{i}
s i 的一部分位置组成的集合。显然,
N
s
i
\mathcal N_{s_{i}}
N s i 描述了位置
s
i
s_{i}
s i 和邻近的位置
s
j
s_{j}
s j 之间的关系:
(
1
)
\qquad(1)
( 1 ) 位置
s
i
s_{i}
s i 和自己不是相邻的,即
s
i
∉
N
s
i
s_{i}\notin\mathcal N_{s_{i}}
s i ∈ / N s i
(
2
)
\qquad(2)
( 2 ) 邻域关系是相互的
(
m
u
t
u
a
l
)
(mutual)
( m u t u a l ) ,即
s
i
∈
N
s
j
⟺
s
j
∈
N
s
i
s_{i}\in\mathcal N_{s_{j}}\Longleftrightarrow s_{j}\in\mathcal N_{s_{i}}
s i ∈ N s j ⟺ s j ∈ N s i 【很关键的一点】
\qquad
对于具有规则网格
(
r
e
g
u
l
a
r
l
a
t
t
i
c
e
)
(regular\ lattice)
( r e g u l a r l a t t i c e ) 结构的位置集
S
\mathcal S
S (例如灰度图像),一种典型的定义邻域系统的方式是:
N
s
i
=
{
s
j
∈
S
∣
∥
s
j
−
s
i
∥
2
≤
r
,
∀
j
≠
i
}
\mathcal N_{s_{i}}=\{s_{j}\in\mathcal S\ |\ \|s_{j}-s_{i}\|_{2}\le r,\forall\ j\not = i\}
N s i = { s j ∈ S ∣ ∥ s j − s i ∥ 2 ≤ r , ∀ j = i } ,表示以
s
i
s_{i}
s i 为中心、
r
r
r 为半径的圆内所包含的所有
s
j
s_{j}
s j 组成了位置
s
i
s_{i}
s i 的邻域
N
s
i
\mathcal N_{s_{i}}
N s i ,如下图所示:
图1 引自于《Markov.Random.Field.Modeling.In.Image.Analysis》Figure 2.1
\qquad
2.2 子团
\qquad
子团
(
C
l
i
q
u
e
)
(Clique)
( C l i q u e ) 是位置集
S
\mathcal S
S 中的子集
(
s
u
b
s
e
t
)
(subset)
( s u b s e t ) ,可以包括“单个 位置
(
s
i
n
g
l
e
s
i
t
e
)
(single\ site)
( s i n g l e s i t e ) ”
C
1
\mathcal C_{1}
C 1 ,“两个 位置
(
p
a
i
r
s
i
t
e
s
)
(pair\ sites)
( p a i r s i t e s ) ”
C
2
\mathcal C_{2}
C 2 ,“三个 位置
(
t
r
i
p
l
e
s
i
t
e
s
)
(triple\ sites)
( t r i p l e s i t e s ) ”
C
3
\mathcal C_{3}
C 3 等情形。
C
1
=
{
s
i
∣
s
i
∈
S
}
\qquad\qquad\mathcal C_{1}=\{s_{i}\ |\ s_{i}\in \mathcal S\}
C 1 = { s i ∣ s i ∈ S }
C
2
=
{
{
s
i
,
s
j
}
∣
s
j
∈
N
i
,
s
i
∈
S
}
\qquad\qquad\mathcal C_{2}=\{\ \{s_{i},s_{j}\}\ |\ s_{j}\in\mathcal N_{i},s_{i}\in \mathcal S\}
C 2 = { { s i , s j } ∣ s j ∈ N i , s i ∈ S }
C
3
=
{
{
s
i
,
s
j
,
s
k
}
∣
s
j
∈
N
i
,
s
k
∈
N
i
,
s
j
∈
N
k
,
s
i
,
s
j
,
s
k
∈
S
}
\qquad\qquad\mathcal C_{3}=\{\ \{s_{i},s_{j},s_{k}\}\ |\ s_{j}\in\mathcal N_{i},s_{k}\in\mathcal N_{i},s_{j}\in\mathcal N_{k} , s_{i},s_{j},s_{k}\in \mathcal S\}
C 3 = { { s i , s j , s k } ∣ s j ∈ N i , s k ∈ N i , s j ∈ N k , s i , s j , s k ∈ S } ,即:
s
i
,
s
j
,
s
k
s_{i},s_{j},s_{k}
s i , s j , s k 彼此互为邻近点
(
n
e
i
g
h
b
o
r
)
(neighbor)
( n e i g h b o r )
\qquad
子团中的位置是有序的
(
o
r
d
e
r
e
d
)
(ordered)
( o r d e r e d ) ,即:
{
s
i
,
s
j
}
\{s_{i},s_{j}\}
{ s i , s j } 和
{
s
j
,
s
i
}
\{s_{j},s_{i}\}
{ s j , s i } 是不一样的。
\qquad
所有子团的并集记为
C
=
C
1
∪
C
2
∪
C
3
∪
⋯
\mathcal C=\mathcal C_{1}\cup\mathcal C_{2}\cup\mathcal C_{3}\cup\cdots
C = C 1 ∪ C 2 ∪ C 3 ∪ ⋯ ,这里的
⋯
\cdots
⋯ 表示所有可能的、更大的子团。
\qquad
定义在规则网格
(
r
e
g
u
l
a
r
l
a
t
t
i
c
e
)
(regular\ lattice)
( r e g u l a r l a t t i c e ) 结构的位置集
S
\mathcal S
S 上的子团类型
(
t
y
p
e
o
f
a
c
l
i
q
u
e
)
(type\ of\ a\ clique)
( t y p e o f a c l i q u e ) ,取决于子团的大小、形状和方向。
图2 解释如下:
对于图1中
r
=
1
r=1
r = 1 的邻域系统,
x
\bold x
x 位置只和上下左右 位置的像素点互为
N
e
i
g
h
b
o
r
Neighbor
N e i g h b o r ,
(
a
)
(a)
( a ) 为 single-site clique,
(
b
)
(b)
( b ) 和
(
c
)
(c)
( c ) 为 pair-sites clique;但是
(
d
)
(d)
( d ) 和
(
e
)
(e)
( e ) 却不是为 pair-sites clique,因为
r
=
1
r=1
r = 1 的邻域系统中对角线上的元素不满足互为
N
e
i
g
h
b
o
r
Neighbor
N e i g h b o r 的条件。
对于图1中
r
=
2
r=2
r = 2 的邻域系统,
x
\bold x
x 位置和上下左右 以及对角 的像素点互为
N
e
i
g
h
b
o
r
Neighbor
N e i g h b o r ,
(
a
)
(a)
( a ) 为 single-site clique,
(
b
)
,
(
c
)
,
(
d
)
,
(
e
)
(b),(c),(d),(e)
( b ) , ( c ) , ( d ) , ( e ) 都为 pair-sites clique(其中一个为
x
\bold x
x 点),
(
f
)
,
(
g
)
,
(
h
)
,
(
i
)
(f),(g),(h),(i)
( f ) , ( g ) , ( h ) , ( i ) 都为 triple-sites clique(拐角处为
x
\bold x
x 点),
(
j
)
(j)
( j ) 为 quadruple-sites clique(其中一个为
x
\bold x
x 点),这些 clique 中的 site 都满足互为
N
e
i
g
h
b
o
r
Neighbor
N e i g h b o r 的条件。
\qquad
不规则地点集
(
i
r
r
e
g
u
l
a
r
s
i
t
e
s
e
t
)
(irregular\ site\ set)
( i r r e g u l a r s i t e s e t ) 的邻域系统和子团:
\qquad
引自于《Markov.Random.Field.Modeling.In.Image.Analysis》Figure 2.1 and Figure 2.2 在
C
2
\mathcal C_2
C 2 中,
f
f
f 和
m
m
m 两个位置不构成 clique,因为不满足互为
N
e
i
g
h
b
o
r
Neighbor
N e i g h b o r 的条件。
\qquad
3. Markov随机场(Markov Random Field)
3.1 随机场
\qquad
令
F
=
{
F
1
,
F
2
,
⋯
,
F
N
2
}
\boldsymbol F=\{F_{1},F_{2},\cdots,F_{N^{2}}\}
F = { F 1 , F 2 , ⋯ , F N 2 } 为定义在位置集
S
=
{
1
,
2
,
⋯
,
N
2
}
\mathcal S =\{1,2,\cdots,N^{2}\}
S = { 1 , 2 , ⋯ , N 2 } 上的一族 随机变量 (每个位置
i
i
i 对应了一个随机变量
F
i
F_{i}
F i ),每个随机变量
F
i
F_{i}
F i 可从离散标签集
L
=
{
l
∣
0
,
1
,
⋯
,
255
}
\mathcal L=\{l\ |\ 0,1,\cdots,255\}
L = { l ∣ 0 , 1 , ⋯ , 2 5 5 } 中取出一个整数
f
i
=
0
∼
255
f_{i}=0\sim255
f i = 0 ∼ 2 5 5 , 这样的一族随机变量
F
\boldsymbol F
F 称为随机场 。
\qquad
如果将
N
×
N
N\times N
N × N 大小的灰度图像(表示为一维)看成是一个随机场 ,那么,
N
×
N
N\times N
N × N 灰度图像随机场
F
\boldsymbol F
F 的一种配置
(
c
o
n
f
i
g
u
r
a
t
i
o
n
)
(configuration)
( c o n f i g u r a t i o n ) 就表示为
(
F
1
=
f
1
,
F
2
=
f
2
,
⋯
,
F
N
2
=
f
N
2
)
(F_{1}=f_{1},F_{2}=f_{2},\cdots,F_{N^{2}}=f_{N^{2}})
( F 1 = f 1 , F 2 = f 2 , ⋯ , F N 2 = f N 2 ) ,记为
(
F
=
f
)
(\boldsymbol F=\boldsymbol f)
( F = f ) ,对应了随机场的一次实现
(
r
e
a
l
i
z
a
t
i
o
n
)
(realization)
( r e a l i z a t i o n ) 。
\qquad
关于随机场
F
\boldsymbol F
F 的联合概率
P
(
F
=
f
)
=
P
(
F
1
=
f
1
,
F
2
=
f
2
,
⋯
,
F
N
2
=
f
N
2
)
P(\boldsymbol F=\boldsymbol f)=P(F_{1}=f_{1},F_{2}=f_{2},\cdots,F_{N^{2}}=f_{N^{2}})
P ( F = f ) = P ( F 1 = f 1 , F 2 = f 2 , ⋯ , F N 2 = f N 2 ) 简写为
P
(
f
)
P(\boldsymbol f)
P ( f ) 。
\qquad
其中,位置
i
i
i 所对应随机变量
F
i
F_{i}
F i 取值为
f
i
∈
L
f_{i}\in\mathcal L
f i ∈ L 的概率
P
(
F
i
=
f
i
)
P(F_{i}=f_{i})
P ( F i = f i ) 简写为
P
(
f
i
)
P(f_{i})
P ( f i ) 。
\qquad
3.2 马尔科夫性(Markovianity)
\qquad
当满足以下条件时,称随机场
F
\boldsymbol F
F 是定义在
S
=
{
1
,
2
,
⋯
,
N
2
}
\mathcal S =\{1,2,\cdots,N^{2}\}
S = { 1 , 2 , ⋯ , N 2 } 上、关于邻域系统
N
\mathcal{N}
N 的
M
a
r
k
o
v
Markov
M a r k o v 随机场
(
M
a
r
k
o
v
R
a
n
d
o
m
F
i
e
l
d
)
(Markov\ Random\ Field)
( M a r k o v R a n d o m F i e l d ) :
(
1
)
\qquad(1)
( 1 ) 非负性:
P
(
f
)
>
0
,
∀
f
∈
F
P(\boldsymbol f)>0,\forall\ \boldsymbol f\in\mathbb F
P ( f ) > 0 , ∀ f ∈ F
(
2
)
\qquad(2)
( 2 ) 马尔可夫性:
P
(
f
i
∣
f
S
−
{
i
}
)
=
P
(
f
i
∣
f
N
i
)
P(f_{i}|\boldsymbol f_{\mathcal{S}-\{i\}})=P(f_{i}|\boldsymbol f_{\mathcal{N}_{i}})
P ( f i ∣ f S − { i } ) = P ( f i ∣ f N i ) ,其中
f
N
i
\boldsymbol f_{\mathcal{N}_{i}}
f N i 表示邻域
N
i
\mathcal{N}_{i}
N i 中位置所对应随机变量
\qquad
显然,马尔科夫随机场是一种概率模型。灰度图像随机场
F
\boldsymbol F
F 的任意一种配置
f
\boldsymbol f
f ,都以一定的概率
P
(
f
)
P(\boldsymbol f)
P ( f ) 对应了一幅(与其它配置所对应图像不一样的)灰度图像;而且,
N
×
N
N\times N
N × N 灰度图像中任意位置
(
x
,
y
)
(x,y)
( x , y ) 处像素的灰度值,只与该位置
i
(
i
=
x
×
N
+
y
)
i\ (i=x\times N +y)
i ( i = x × N + y ) 的邻域
N
i
\mathcal{N}_{i}
N i 所包含的像素灰度值 有关。
\qquad
例如,在图
(
1
)
(1)
( 1 ) 中如果用
r
=
1
r=1
r = 1 定义邻域系统,
x
\bold x
x 位置的像素值只和上下左右
4
4
4 个像素值有关;如果用
r
=
2
r=2
r = 2 定义邻域系统,
x
\bold x
x 位置的像素值只和包围该位置的
8
8
8 个像素值有关。这种“图像具有马尔科夫性” 的假设,对于很多自然图像都是满足的。
\qquad
3.3 Gibbs随机场(Gibbs Random Field)
\qquad
如果随机场
F
\boldsymbol F
F 的任一配置
(
F
=
f
)
(\boldsymbol F=\boldsymbol f)
( F = f ) 的概率都服从
G
i
b
b
s
Gibbs
G i b b s 分布,就称随机场
F
\boldsymbol F
F 是定义在位置集
S
=
{
1
,
2
,
⋯
,
N
2
}
\mathcal S =\{1,2,\cdots,N^{2}\}
S = { 1 , 2 , ⋯ , N 2 } 上的 Gibbs随机场 。
\qquad
G
i
b
b
s
Gibbs
G i b b s 分布 :
P
(
f
)
=
e
−
1
T
U
(
f
)
Z
\qquad\qquad P(\boldsymbol f)=\dfrac{e^{-\frac{1}{T}U(\boldsymbol f)}}{Z}
P ( f ) = Z e − T 1 U ( f ) ,归一化常数
Z
=
∑
f
∈
F
e
−
1
T
U
(
f
)
Z=\displaystyle\sum_{\boldsymbol f\in \mathbb F}e^{-\frac{1}{T}U(\boldsymbol f)}
Z = f ∈ F ∑ e − T 1 U ( f ) , 显然
∑
f
∈
F
P
(
f
)
=
1
\displaystyle\sum_{\boldsymbol f\in \mathbb F}P(\boldsymbol f)=1
f ∈ F ∑ P ( f ) = 1
\qquad
其中:
(
1
)
\qquad(1)
( 1 ) “归一化常数”
Z
Z
Z 称为配分函数
(
p
a
r
t
i
t
i
o
n
f
u
n
c
t
i
o
n
)
(partition\ function)
( p a r t i t i o n f u n c t i o n ) :所有配置
f
∈
F
\boldsymbol f\in \mathbb F
f ∈ F 对应的
e
−
1
T
U
(
f
)
e^{-\frac{1}{T}U(\boldsymbol f)}
e − T 1 U ( f ) 值之和
(
2
)
\qquad(2)
( 2 ) 常数
T
T
T 为温度
(
t
e
m
p
e
r
a
t
u
r
e
)
(temperature)
( t e m p e r a t u r e ) :用于控制
G
i
b
b
s
Gibbs
G i b b s 分布的尖锐程度
(
s
h
a
r
p
n
e
s
s
)
(sharpness)
( s h a r p n e s s )
\qquad
当
T
T
T 值很大,所有配置
f
\boldsymbol f
f 的概率
P
(
f
)
P(\boldsymbol f)
P ( f ) 趋于相等;
\qquad
当
T
T
T 值固定时,能量函数
U
(
f
)
U(\boldsymbol f)
U ( f ) 的值越小,
P
(
f
)
P(\boldsymbol f)
P ( f ) 越大。
(
3
)
\qquad(3)
( 3 )
U
(
f
)
U(\boldsymbol f)
U ( f ) 称为能量函数
(
e
n
e
r
g
y
f
u
n
c
t
i
o
n
)
(energy\ function)
( e n e r g y f u n c t i o n ) :所有子团的势能之和
(
s
u
m
o
f
c
l
i
q
u
e
p
o
t
e
n
t
i
a
l
s
)
(sum\ of\ clique\ potentials)
( s u m o f c l i q u e p o t e n t i a l s )
U
(
f
)
=
∑
c
∈
C
V
c
(
f
)
\qquad\qquad\qquad U(\boldsymbol f)=\displaystyle\sum_{c\in \mathcal C}V_{c}(\boldsymbol f)
U ( f ) = c ∈ C ∑ V c ( f ) 其中,
V
c
(
f
)
V_{c}(\boldsymbol f)
V c ( f ) 表示子团
c
c
c 上的势能。
关于Gibbs分布的解释可参考《数字图像处理(王桥)》P167-168 和Gibbs分布、Boltzmann分布有关的求解过程基本上都可以采用模拟退火过程。
\qquad
在实际计算能量函数的时候,通常需要考虑
G
R
F
GRF
G R F 的两个特殊性质:齐次性
(
h
o
m
o
g
e
n
e
i
t
y
)
(homogeneity)
( h o m o g e n e i t y ) ,各向同性
(
i
s
o
t
r
o
p
y
)
(isotropy)
( i s o t r o p y ) 。
MRF/GRF 中的(空间)齐次性是对Markov链中(时间)齐次性的扩展。 一阶Markov链
:
P
(
X
t
+
1
=
x
t
+
1
∣
X
t
=
x
t
,
⋯
,
X
0
=
x
0
)
=
P
(
X
t
+
1
=
x
t
+
1
∣
X
t
=
x
t
)
P(X_{t+1}=x_{t+1}|X_{t}=x_{t},\cdots,X_{0}=x_{0})=P(X_{t+1}=x_{t+1}|X_{t}=x_{t})
P ( X t + 1 = x t + 1 ∣ X t = x t , ⋯ , X 0 = x 0 ) = P ( X t + 1 = x t + 1 ∣ X t = x t ) 齐次的(homogeneous)一阶Markov链
: 记
t
t
t 时刻的一步转移概率 为:
P
(
X
t
+
1
=
j
∣
X
t
=
i
)
=
p
i
j
(
t
)
,
∀
i
,
j
∈
P(X_{t+1}=j|X_{t}=i)=p_{ij}(t),\ \ \forall\ i,j\in
P ( X t + 1 = j ∣ X t = i ) = p i j ( t ) , ∀ i , j ∈ 状态空间 当一步转移概率
p
i
j
(
t
)
p_{ij}(t)
p i j ( t ) 与时间
t
t
t 无关 ,即:
p
i
j
(
t
)
=
p
i
j
p_{ij}(t)=p_{ij}
p i j ( t ) = p i j 时,为齐次
M
a
r
k
o
v
Markov
M a r k o v 链 。 《Markov.Random.Field.Modeling.In.Image.Analysis》2.1节对
M
R
F
/
G
R
F
MRF/GRF
M R F / G R F 中的(空间)齐次性做了如下解释:
(
a
)
(a)
( a ) MRF中的齐次性 :
P
(
f
i
∣
f
N
i
)
P(f_{i}|f_{\mathcal{N}_{i}})
P ( f i ∣ f N i ) 与
i
i
i 在
S
\mathcal S
S 中的相对位置无关 如果都采用相同的邻域系统,位置
j
(
j
≠
i
)
j\ (j\neq i)
j ( j = i ) 的邻域
N
j
\mathcal{N}_{j}
N j 应该和位置
i
i
i 的邻域
N
i
\mathcal{N}_{i}
N i 的结构是一样的,那么就有
P
(
f
j
∣
f
N
j
)
=
P
(
f
i
∣
f
N
i
)
P(f_{j}|f_{\mathcal{N}_{j}})=P(f_{i}|f_{\mathcal{N}_{i}})
P ( f j ∣ f N j ) = P ( f i ∣ f N i ) ,也就是说
P
(
f
i
∣
f
N
i
)
P(f_{i}|f_{\mathcal{N}_{i}})
P ( f i ∣ f N i ) 的计算与
i
i
i 在
S
\mathcal S
S 中的具体位置无关,只要满足位置
i
∈
S
i\in\mathcal S
i ∈ S 对应的
N
i
\mathcal{N}_{i}
N i 的结构一致
(
b
)
(b)
( b ) GRF中的齐次性 :
V
c
(
f
)
V_{c}(\boldsymbol f)
V c ( f ) 与子团
c
c
c 的相对位置无关 以
p
a
i
r
s
i
t
e
s
pair\ sites
p a i r s i t e s 子团
C
2
\mathcal C_{2}
C 2 为例,假设位置
i
,
i
′
,
j
,
j
′
∈
S
i,i^{'},j,j^{'}\in \mathcal S
i , i ′ , j , j ′ ∈ S ,如果
{
i
,
i
′
}
\{i,i^{'}\}
{ i , i ′ } 与
{
j
,
j
′
}
\{j,j^{'}\}
{ j , j ′ } 以相同的结构形成子团
c
i
=
{
i
,
i
′
}
,
c
j
=
{
j
,
j
′
}
,
c
i
,
c
j
∈
C
2
c_{i}=\{i,i^{'}\},c_{j}=\{j,j^{'}\},c_{i},c_{j}\in\mathcal C_{2}
c i = { i , i ′ } , c j = { j , j ′ } , c i , c j ∈ C 2 ,那么这两个子团的能量函数
V
c
i
(
f
i
,
f
i
′
)
,
V
c
j
(
f
j
,
f
j
′
)
V_{c_{i}}(f_{i},f_{i^{'}}),V_{c_{j}}(f_{j},f_{j^{'}})
V c i ( f i , f i ′ ) , V c j ( f j , f j ′ ) 可以用一个通式
V
2
(
f
i
,
f
i
′
)
,
V
2
(
f
j
,
f
j
′
)
V_{2}(f_{i},f_{i^{'}}),V_{2}(f_{j},f_{j^{'}})
V 2 ( f i , f i ′ ) , V 2 ( f j , f j ′ ) 来表示 即:
∑
c
∈
C
2
V
c
(
f
)
=
∑
{
i
,
j
}
∈
C
2
V
2
(
f
i
,
f
j
)
\sum\limits_{c\in \mathcal C_{2}}V_{c}(\boldsymbol f)=\sum\limits_{\{i,j\}\in \mathcal C_{2}}V_{2}(f_{i},f_{j})
c ∈ C 2 ∑ V c ( f ) = { i , j } ∈ C 2 ∑ V 2 ( f i , f j )
\qquad
因此,齐次
(
h
o
m
o
g
e
n
e
o
u
s
)
G
i
b
b
s
(homogeneous)Gibbs
( h o m o g e n e o u s ) G i b b s 分布 的能量函数可以表示为
U
(
f
)
=
∑
{
i
}
∈
C
1
V
1
(
f
i
)
+
∑
{
i
,
j
}
∈
C
2
V
2
(
f
i
,
f
j
)
+
∑
{
i
,
j
,
k
}
∈
C
3
V
3
(
f
i
,
f
j
,
f
k
)
+
⋯
\qquad\qquad U(\boldsymbol f)=\displaystyle\sum_{\{i\}\in \mathcal C_{1}}V_{1}(f_{i})+\displaystyle\sum_{\{i,j\}\in \mathcal C_{2}}V_{2}(f_{i},f_{j})+\displaystyle\sum_{\{i,j,k\}\in \mathcal C_{3}}V_{3}(f_{i},f_{j},f_{k})+\cdots
U ( f ) = { i } ∈ C 1 ∑ V 1 ( f i ) + { i , j } ∈ C 2 ∑ V 2 ( f i , f j ) + { i , j , k } ∈ C 3 ∑ V 3 ( f i , f j , f k ) + ⋯
\qquad
一种很重要的情形 :仅考虑“
s
i
n
g
l
e
s
i
t
e
single\ site
s i n g l e s i t e 子团”
C
1
\mathcal C_{1}
C 1 和“
p
a
i
r
s
i
t
e
s
pair\ sites
p a i r s i t e s 子团”
C
2
\mathcal C_{2}
C 2 的情况,此时的能量函数 表示为
U
(
f
)
=
∑
{
i
}
∈
C
1
V
1
(
f
i
)
+
∑
{
i
,
j
}
∈
C
2
V
2
(
f
i
,
f
j
)
=
∑
i
∈
S
V
1
(
f
i
)
+
∑
i
∈
S
∑
j
∈
N
i
V
2
(
f
i
,
f
j
)
\qquad\qquad\begin{aligned} U(\boldsymbol f)&=\displaystyle\sum_{\{i\}\in \mathcal C_{1}}V_{1}(f_{i})+\displaystyle\sum_{\{i,j\}\in \mathcal C_{2}}V_{2}(f_{i},f_{j}) \\ &=\displaystyle\sum_{i\in \mathcal S}V_{1}(f_{i})+\displaystyle\sum_{i\in \mathcal S}\displaystyle\sum_{j\in \mathcal{N}_{i}}V_{2}(f_{i},f_{j}) \\ \end{aligned}
U ( f ) = { i } ∈ C 1 ∑ V 1 ( f i ) + { i , j } ∈ C 2 ∑ V 2 ( f i , f j ) = i ∈ S ∑ V 1 ( f i ) + i ∈ S ∑ j ∈ N i ∑ V 2 ( f i , f j )
\qquad
\qquad
这时
\qquad
P
(
f
i
∣
f
N
i
)
=
P
(
f
i
,
f
N
i
)
P
(
f
N
i
)
=
P
(
f
i
,
f
N
i
)
∑
f
i
′
∈
L
P
(
f
i
′
,
f
N
i
)
分
子
:
F
i
=
f
i
,
分
母
:
F
i
=
f
i
′
=
e
−
[
V
1
(
f
i
)
+
∑
j
∈
N
i
V
2
(
f
i
,
f
j
)
]
∑
f
i
′
∈
L
e
−
[
V
1
(
f
i
′
)
+
∑
j
∈
N
i
V
2
(
f
i
,
f
j
)
]
\qquad\qquad\begin{aligned} P(f_{i}|\boldsymbol f_{\mathcal N_{i}})&=\dfrac{P(f_{i},\boldsymbol f_{\mathcal N_{i}})}{P(\boldsymbol f_{\mathcal N_{i}})} \\ &=\dfrac{P(f_{i},\boldsymbol f_{\mathcal N_{i}})}{\sum_{f_i^{'}\in\mathcal L}P(f_i^{'},\boldsymbol f_{\mathcal N_{i}})} \qquad分子:F_i=f_i ,分母:F_i=f_i^{'} \\ &=\dfrac{e^{-\left[ V_{1}(f_{i})+\sum_{j\in \mathcal N_{i}}V_{2}(f_{i},f_{j})\right]}}{\sum_{f_i^{'}\in\mathcal L}e^{-\left[ V_{1}(f_i^{'})+\sum_{j\in \mathcal N_{i}}V_{2}(f_{i},f_{j})\right]}} \\ \end{aligned}
P ( f i ∣ f N i ) = P ( f N i ) P ( f i , f N i ) = ∑ f i ′ ∈ L P ( f i ′ , f N i ) P ( f i , f N i ) 分 子 : F i = f i , 分 母 : F i = f i ′ = ∑ f i ′ ∈ L e − [ V 1 ( f i ′ ) + ∑ j ∈ N i V 2 ( f i , f j ) ] e − [ V 1 ( f i ) + ∑ j ∈ N i V 2 ( f i , f j ) ]
\qquad
3.4 Markov与Gibbs的等价性
M
a
r
k
o
v
Markov
M a r k o v 随机场 的特点在于考虑了位置集
S
\mathcal S
S 的局部特性 ,提供了随机场的条件分布(条件分布满足马尔科夫性),实现起来比较困难;
G
i
b
b
s
Gibbs
G i b b s 随机场 的特点在于考虑了位置集
S
\mathcal S
S 的全局特性 ,提供了随机场的联合分布(
S
\mathcal S
S 上的随机场
F
\boldsymbol F
F 的每个配置
f
\boldsymbol f
f 服从
G
i
b
b
s
Gibbs
G i b b s 分布),可以借助空间上的邻域系统来实现(选择不同的子团类型和对应的能量函数形式,可以产生不同形式的GRF)。
H
a
m
m
e
r
s
l
e
y
−
C
l
i
f
f
o
r
d
\qquad Hammersley-Clifford
H a m m e r s l e y − C l i f f o r d 定理建立了
M
R
F
MRF
M R F 和
G
R
F
GRF
G R F 之间的一一对应关系:如果随机场
F
\boldsymbol F
F 具有局部
M
a
r
k
o
v
Markov
M a r k o v 性,那么随机场
F
\boldsymbol F
F 具有
G
i
b
b
s
Gibbs
G i b b s 分布;反之,如果随机场
F
\boldsymbol F
F 具有
G
i
b
b
s
Gibbs
G i b b s 分布。
\qquad
假设
P
(
f
)
P(\boldsymbol f)
P ( f ) 是位置集
S
\mathcal S
S 上的关于邻域系统
N
\mathcal N
N 的Gibbs分布,那么
\qquad
\qquad\qquad
P
(
f
i
∣
f
S
−
{
i
}
)
=
P
(
f
i
,
f
S
−
{
i
}
)
P
(
f
S
−
{
i
}
)
,
记
(
F
=
f
)
=
(
F
i
=
f
i
,
f
S
−
{
i
}
)
=
P
(
f
)
∑
f
i
′
∈
L
P
(
f
i
′
,
f
S
−
{
i
}
)
,
记
f
i
′
为
L
中
某
个
值
,
F
i
的
取
值
为
f
i
′
=
P
(
f
)
∑
f
i
′
∈
L
P
(
f
′
)
,
记
(
F
=
f
′
)
=
(
F
i
=
f
i
′
,
f
S
−
{
i
}
)
=
e
−
∑
c
∈
C
V
c
(
f
)
∑
f
i
′
∈
L
e
−
∑
c
∈
C
V
c
(
f
′
)
=
e
−
∑
c
∈
A
V
c
(
f
)
⋅
e
−
∑
c
∈
B
V
c
(
f
)
∑
f
i
′
∈
L
[
e
−
∑
c
∈
A
V
c
(
f
′
)
⋅
e
−
∑
c
∈
B
V
c
(
f
′
)
]
\begin{aligned} P(f_{i}|\boldsymbol f_{\mathcal{S}-\{i\}})&=\dfrac{P(f_{i},\boldsymbol f_{\mathcal{S}-\{i\}})}{P(\boldsymbol f_{\mathcal{S}-\{i\}})} \qquad\ \ \ , \ \ 记\ (\boldsymbol F=\boldsymbol f)=(F_i=f_{i},\boldsymbol f_{\mathcal{S}-\{i\}}) \\ &=\dfrac{P(\boldsymbol f)}{\sum_{f_i^{'}\in\mathcal L}P(f_{i}^{'},\boldsymbol f_{\mathcal{S}-\{i\}})}, \ \ 记 \ f_{i}^{'}\ 为\ \mathcal L\ 中某个值,F_i\ 的取值为\ f_{i}^{'} \\ &=\dfrac{P(\boldsymbol f)}{\sum_{f_i^{'}\in\mathcal L}P(\boldsymbol f^{'})}\qquad\ \ \ \ , \ \ 记\ (\boldsymbol F=\boldsymbol f^{'})=(F_i=f_{i}^{'},\boldsymbol f_{\mathcal{S}-\{i\}}) \\ &=\dfrac{e^{-\sum_{c\in \mathcal C}V_{c}(\boldsymbol f)}}{\sum_{f_i^{'}\in\mathcal L} e^{-\sum_{c\in \mathcal C}V_{c}(\boldsymbol f^{'})}} \\ &=\dfrac{e^{-\sum_{c\in \mathcal A}V_{c}(\boldsymbol f)}\cdot e^{-\sum_{c\in \mathcal B}V_{c}(\boldsymbol f)}}{\sum_{f_i^{'}\in\mathcal L} \left[e^{-\sum_{c\in \mathcal A}V_{c}(\boldsymbol f^{'})}\cdot e^{-\sum_{c\in \mathcal B}V_{c}(\boldsymbol f^{'})}\right]}\\ \end{aligned}
P ( f i ∣ f S − { i } ) = P ( f S − { i } ) P ( f i , f S − { i } ) , 记 ( F = f ) = ( F i = f i , f S − { i } ) = ∑ f i ′ ∈ L P ( f i ′ , f S − { i } ) P ( f ) , 记 f i ′ 为 L 中 某 个 值 , F i 的 取 值 为 f i ′ = ∑ f i ′ ∈ L P ( f ′ ) P ( f ) , 记 ( F = f ′ ) = ( F i = f i ′ , f S − { i } ) = ∑ f i ′ ∈ L e − ∑ c ∈ C V c ( f ′ ) e − ∑ c ∈ C V c ( f ) = ∑ f i ′ ∈ L [ e − ∑ c ∈ A V c ( f ′ ) ⋅ e − ∑ c ∈ B V c ( f ′ ) ] e − ∑ c ∈ A V c ( f ) ⋅ e − ∑ c ∈ B V c ( f )
\qquad
其中,
A
\mathcal A
A 为包含 位置
i
i
i 的所有子团,
B
\mathcal B
B 为不包含 位置
i
i
i 的所有子团,显然分母中的
e
−
∑
c
∈
B
V
c
(
f
′
)
e^{-\sum_{c\in \mathcal B}V_{c}(\boldsymbol f^{'})}
e − ∑ c ∈ B V c ( f ′ ) 与随机变量
F
i
=
f
i
′
F_{i}=f_{i}^{'}
F i = f i ′ 的取值无关,可以放到
∑
f
i
′
∈
L
\sum_{f_i^{'}\in\mathcal L}
∑ f i ′ ∈ L 的外面。
\qquad
因此,可得到:
\qquad\qquad
P
(
f
i
∣
f
S
−
{
i
}
)
=
e
−
∑
c
∈
A
V
c
(
f
)
⋅
e
−
∑
c
∈
B
V
c
(
f
)
∑
f
i
′
∈
L
[
e
−
∑
c
∈
A
V
c
(
f
′
)
⋅
e
−
∑
c
∈
B
V
c
(
f
′
)
]
=
e
−
∑
c
∈
A
V
c
(
f
)
⋅
e
−
∑
c
∈
B
V
c
(
f
)
e
−
∑
c
∈
B
V
c
(
f
′
)
⋅
∑
f
i
′
∈
L
[
e
−
∑
c
∈
A
V
c
(
f
′
)
]
=
e
−
∑
c
∈
A
V
c
(
f
)
∑
f
i
′
∈
L
e
−
∑
c
∈
A
V
c
(
f
′
)
\begin{aligned} P(f_{i}|\boldsymbol f_{\mathcal{S}-\{i\}}) &=\dfrac{e^{-\sum_{c\in \mathcal A}V_{c}(\boldsymbol f)}\cdot e^{-\sum_{c\in \mathcal B}V_{c}(\boldsymbol f)}}{\sum_{f_i^{'}\in\mathcal L} \left[e^{-\sum_{c\in \mathcal A}V_{c}(\boldsymbol f^{'})}\cdot e^{-\sum_{c\in \mathcal B}V_{c}(\boldsymbol f^{'})}\right]}\\ &=\dfrac{e^{-\sum_{c\in \mathcal A}V_{c}(\boldsymbol f)}\cdot e^{-\sum_{c\in \mathcal B}V_{c}(\boldsymbol f)}}{e^{-\sum_{c\in \mathcal B}V_{c}(\boldsymbol f^{'})}\cdot\sum_{f_i^{'}\in\mathcal L} \left[e^{-\sum_{c\in \mathcal A}V_{c}(\boldsymbol f^{'})} \right]}\\ &=\dfrac{e^{-\sum_{c\in \mathcal A}V_{c}(\boldsymbol f)}}{\sum_{f_i^{'}\in\mathcal L} e^{-\sum_{c\in \mathcal A}V_{c}(\boldsymbol f^{'})}}\\ \end{aligned}
P ( f i ∣ f S − { i } ) = ∑ f i ′ ∈ L [ e − ∑ c ∈ A V c ( f ′ ) ⋅ e − ∑ c ∈ B V c ( f ′ ) ] e − ∑ c ∈ A V c ( f ) ⋅ e − ∑ c ∈ B V c ( f ) = e − ∑ c ∈ B V c ( f ′ ) ⋅ ∑ f i ′ ∈ L [ e − ∑ c ∈ A V c ( f ′ ) ] e − ∑ c ∈ A V c ( f ) ⋅ e − ∑ c ∈ B V c ( f ) = ∑ f i ′ ∈ L e − ∑ c ∈ A V c ( f ′ ) e − ∑ c ∈ A V c ( f )
\qquad
这就说明
P
(
f
i
∣
f
S
−
{
i
}
)
P(f_{i}|\boldsymbol f_{\mathcal{S}-\{i\}})
P ( f i ∣ f S − { i } ) 只和包含位置
i
i
i 的所有子团的势能有关,对于满足
c
∈
B
c\in\mathcal B
c ∈ B 的子团,实际上就是3.3节中的
P
(
f
i
∣
f
N
i
)
P(f_{i}|\boldsymbol f_{\mathcal N_{i}})
P ( f i ∣ f N i ) 。这说明了,在定义了邻域系统
N
\mathcal N
N 的情况下,
G
R
F
GRF
G R F 和
M
R
F
MRF
M R F 是等价的。
\qquad
4 图像的MRF建模
4.1 图像随机场
\qquad
将一幅
N
×
M
N\times M
N × M 大小的灰度图像建模为随机场 :
(
1
)
\qquad(1)
( 1 ) 假设图像大小为
N
×
M
N\times M
N × M ,位置集
(
s
i
t
e
s
e
t
)
(site\ set)
( s i t e s e t ) 按照图像扫描顺序排列
\qquad
即:
S
=
{
0
,
1
,
⋯
,
m
×
M
+
n
,
⋯
,
N
×
M
}
\mathcal S=\{0,1,\cdots,m\times M+n,\cdots,N\times M\}
S = { 0 , 1 , ⋯ , m × M + n , ⋯ , N × M } ,位置集中的
m
×
M
+
n
m\times M+n
m × M + n 表示图像中
(
m
,
n
)
(m,n)
( m , n ) 位置处的像素
(
2
)
\qquad(2)
( 2 ) 只考虑灰度图像 时,标签集
(
l
a
b
e
l
s
e
t
)
(label\ set)
( l a b e l s e t ) 为
L
=
{
0
,
1
,
⋯
,
255
}
\mathcal L=\{0,1,\cdots,255\}
L = { 0 , 1 , ⋯ , 2 5 5 }
(
3
)
\qquad(3)
( 3 ) 在位置集
S
\mathcal S
S 上定义一族随机变量
F
i
F_{i}
F i 组成了图像随机场
F
=
{
F
1
,
⋯
,
F
i
,
⋯
,
F
N
×
M
}
,
i
∈
S
\boldsymbol F=\{F_{1},\cdots,F_{i},\cdots,F_{N\times M}\}\ ,\ i\in\mathcal S
F = { F 1 , ⋯ , F i , ⋯ , F N × M } , i ∈ S
(
4
)
\qquad(4)
( 4 ) 随机场
F
\boldsymbol F
F 的一种配置
(
F
=
f
)
(\boldsymbol F=\boldsymbol f)
( F = f ) 表示
(
F
1
=
f
1
,
⋯
,
F
i
=
f
i
,
⋯
,
F
N
×
M
=
f
N
×
M
)
,
f
i
∈
L
(F_{1}=f_{1},\cdots,F_{i}=f_{i},\cdots,F_{N\times M}=f_{N\times M})\ ,\ f_{i}\in\mathcal L
( F 1 = f 1 , ⋯ , F i = f i , ⋯ , F N × M = f N × M ) , f i ∈ L
\qquad
我们观测到了图像
y
=
{
y
1
,
⋯
,
y
i
,
⋯
,
y
N
×
M
}
\boldsymbol y=\{y_{1},\cdots,y_{i},\cdots,y_{N\times M}\}
y = { y 1 , ⋯ , y i , ⋯ , y N × M } ,观测图像
y
\boldsymbol y
y 也对应了随机场
F
\boldsymbol F
F 的一种配置 或一次实现 ,即:
(
F
=
y
)
=
(
F
1
=
y
1
,
⋯
,
F
i
=
y
i
,
⋯
,
F
N
×
M
=
y
N
×
M
)
(\boldsymbol F=\boldsymbol y)=(F_{1}=y_{1},\cdots,F_{i}=y_{i},\cdots,F_{N\times M}=y_{N\times M})
( F = y ) = ( F 1 = y 1 , ⋯ , F i = y i , ⋯ , F N × M = y N × M )
\qquad
4.2 图像退化的似然描述
\qquad
假设我们观测到了一幅退化的(有噪声的)图像
y
\boldsymbol y
y ,原始图像为
f
\boldsymbol f
f 。对于该图像的第
i
i
i 个像素,满足
y
i
=
φ
(
f
i
)
+
ε
i
y_{i}= \varphi( f_{i})+\varepsilon_{i}
y i = φ ( f i ) + ε i ,例如高斯噪声为
ε
i
∼
N
(
0
,
σ
i
2
)
,
i
∈
S
\varepsilon_{i}\sim\mathcal N(0,\sigma^{2}_{i}),\ i\in\mathcal S
ε i ∼ N ( 0 , σ i 2 ) , i ∈ S 。
\qquad
考虑图像的退化模型
P
(
y
∣
f
)
P(\boldsymbol y|\boldsymbol f)
P ( y ∣ f ) ,一般我们假设“退化过程关于不同位置的像素值 是相互独立的 ”,也就是:
P
(
y
∣
f
)
=
∏
i
∈
S
P
(
y
i
∣
f
i
)
=
∏
i
=
1
N
×
M
P
(
y
i
∣
f
i
)
\qquad\qquad P(\boldsymbol y|\boldsymbol f)=\displaystyle\prod_{i\in\mathcal S} P(y_{i}|f_{i})=\displaystyle\prod_{i=1}^{N\times M} P(y_{i}|f_{i})
P ( y ∣ f ) = i ∈ S ∏ P ( y i ∣ f i ) = i = 1 ∏ N × M P ( y i ∣ f i )
\qquad
上式可以认为是“图像退化的似然描述 ”,因为观测图像
y
\boldsymbol y
y 是已知的、固定不变的,概率值
P
(
y
∣
f
)
P(\boldsymbol y|\boldsymbol f)
P ( y ∣ f ) 对于
f
\boldsymbol f
f 的变动来说,可以称为“似然”。
可参考《数字图像处理(王桥)》§7.1 (P159) 和 §7.3.4 (P170) 对比关于观测数据集
D
=
{
x
1
,
x
2
,
⋯
,
x
N
}
\mathcal D=\{x_1,x_2,\cdots,x_N\}
D = { x 1 , x 2 , ⋯ , x N } 的似然函数
p
(
D
∣
θ
)
=
p
(
x
1
,
x
2
,
⋯
,
x
N
∣
θ
)
p(\mathcal D|\theta)=p(x_1,x_2,\cdots,x_N|\theta)
p ( D ∣ θ ) = p ( x 1 , x 2 , ⋯ , x N ∣ θ ) ,这里的“似然”是指概率值
p
(
D
∣
θ
)
p(\mathcal D|\theta)
p ( D ∣ θ ) 的大小 对于参数
θ
\theta
θ 的变动 而言,可参考《正态分布的最大似然估计 》。
\qquad
例如,高斯似然模型
ε
i
∼
N
(
0
,
σ
i
2
)
\varepsilon_{i}\sim\mathcal N(0,\sigma^{2}_{i})
ε i ∼ N ( 0 , σ i 2 ) ,退化模型为
P
(
y
i
∣
f
i
)
=
1
2
π
σ
i
e
−
[
φ
(
f
i
)
−
y
i
]
2
2
σ
i
2
P(y_{i}|f_{i})= \dfrac{1}{\sqrt{2\pi}\sigma_i}e^{-\frac{[\varphi( f_{i})-y_i]^2}{2\sigma_i^2}}
P ( y i ∣ f i ) = 2 π
σ i 1 e − 2 σ i 2 [ φ ( f i ) − y i ] 2 ,可得到
\qquad\qquad
P
(
y
∣
f
)
=
∏
i
∈
S
P
(
y
i
∣
f
i
)
=
1
∏
i
=
1
N
×
M
2
π
σ
i
2
e
−
U
(
f
)
,
其
中
U
(
f
)
=
∑
i
∈
S
[
φ
(
f
i
)
−
y
i
]
2
2
σ
i
2
\begin{aligned}P(\boldsymbol y|\boldsymbol f)&=\prod_{i\in\mathcal S} P(y_{i}|f_{i})\\ &= \dfrac{1}{\prod_{i=1}^{N\times M}\sqrt{2\pi\sigma_i^2}}e^{-U(\boldsymbol f)},\ \ \ 其中U(\boldsymbol f)=\sum_{i\in\mathcal S}\dfrac{[\varphi( f_{i})-y_i]^2}{2\sigma_i^2} \\ \end{aligned}
P ( y ∣ f ) = i ∈ S ∏ P ( y i ∣ f i ) = ∏ i = 1 N × M 2 π σ i 2
1 e − U ( f ) , 其 中 U ( f ) = i ∈ S ∑ 2 σ i 2 [ φ ( f i ) − y i ] 2
\qquad
4.3 MAP-MRF模型
\qquad
通过建立图像的随机场模型、以及对图像退化过程进行似然描述,就可以获得对图像的概率描述。有了这些概率工具,就可以去考虑“通过观测图像估计真实图像”之类的估计问题,最常用的框架就是最大后验估计
(
M
a
x
i
m
u
m
A
P
o
s
t
e
r
i
o
r
i
,
M
A
P
)
(Maximum\ A\ Posteriori,\ MAP)
( M a x i m u m A P o s t e r i o r i , M A P ) 。
(
1
)
\qquad(1)
( 1 ) 从概率的角度来看,要从一幅包含噪声的观测图像中恢复原始图像,就是要得到随机场
F
\boldsymbol F
F 的某一种配置
(
F
=
f
)
(\boldsymbol F=\boldsymbol f)
( F = f ) ,该配置的概率值最大。
\qquad\qquad
在MAP-MRF框架 中图像真实值
x
\bold x
x 的最佳估计
x
^
\hat\bold x
x ^ :
x
^
=
arg max
f
P
(
f
∣
y
)
\hat\bold x=\argmax_{\boldsymbol f} P(\boldsymbol f|\boldsymbol y)
x ^ = f a r g m a x P ( f ∣ y )
\qquad\qquad
也就是,在已知观测值
y
\boldsymbol y
y 的条件下、具有最大后验概率 时的配置
f
\boldsymbol f
f 作为原始图像的估计
\qquad
(
2
)
\qquad(2)
( 2 ) 贝叶斯推理:
\qquad\qquad\qquad
P
(
f
∣
y
)
=
P
(
y
∣
f
)
P
(
f
)
P
(
y
)
∝
P
(
y
∣
f
)
P
(
f
)
P(\boldsymbol f|\boldsymbol y)=\dfrac{P(\boldsymbol y|\boldsymbol f)P(\boldsymbol f)}{P(\boldsymbol y)}\propto P(\boldsymbol y|\boldsymbol f)P(\boldsymbol f)
P ( f ∣ y ) = P ( y ) P ( y ∣ f ) P ( f ) ∝ P ( y ∣ f ) P ( f )
\qquad\qquad
其中,
P
(
f
)
P(\boldsymbol f)
P ( f ) 是可能的原始图像
f
\boldsymbol f
f 的先验概率,
P
(
y
∣
f
)
=
∏
i
=
1
N
×
M
P
(
y
i
∣
f
i
)
P(\boldsymbol y|\boldsymbol f)=\displaystyle\prod_{i=1}^{N\times M} P(y_{i}|f_{i})
P ( y ∣ f ) = i = 1 ∏ N × M P ( y i ∣ f i ) 是图像退化的似然模型
\qquad\qquad
条件概率值
P
(
y
∣
f
)
P(\boldsymbol y|\boldsymbol f)
P ( y ∣ f ) 表示可能的原始图像
f
\boldsymbol f
f 退化为观测图像
y
\boldsymbol y
y 的似然值(可能性)
(
3
)
\qquad(3)
( 3 ) 图像的MAP-MRF框架 就为:
\qquad\qquad\qquad
f
^
=
arg max
f
P
(
f
∣
y
)
=
arg max
f
{
ln
P
(
y
∣
f
)
+
ln
P
(
f
)
}
\begin{aligned}\hat\boldsymbol f&=\argmax_{\boldsymbol f} P(\boldsymbol f|\boldsymbol y)\\ &=\argmax_{\boldsymbol f}\{ \ln P(\boldsymbol y|\boldsymbol f)+\ln P(\boldsymbol f)\} \\ \end{aligned}
f ^ = f a r g m a x P ( f ∣ y ) = f a r g m a x { ln P ( y ∣ f ) + ln P ( f ) }
\qquad\qquad
如果
P
(
f
)
P(\boldsymbol f)
P ( f ) 服从均匀分布,最大后验估计就等价于最大似然估计
\qquad
因此,图像的
M
R
F
MRF
M R F 模型就是根据实际需要,选择合适的退化模型
P
(
y
∣
f
)
P(\boldsymbol y|\boldsymbol f)
P ( y ∣ f ) 和图像先验模型
P
(
f
)
P(\boldsymbol f)
P ( f ) 来进行贝叶斯推理。
\qquad
5. 图像分类的例子
\qquad
对于
N
×
M
N\times M
N × M 灰度图像的随机场建模如4.1节所描述,位置集
S
=
{
0
,
1
,
⋯
,
N
×
M
}
\mathcal S=\{0,1,\cdots,N\times M\}
S = { 0 , 1 , ⋯ , N × M } 。对于图像分类问题(图像分割),标签集
L
=
{
1
,
⋯
,
M
}
\mathcal L=\{1,\cdots,M\}
L = { 1 , ⋯ , M } ,其中
M
M
M 表示类别数。
\qquad
退化模型:
假设图像退化的似然模型
P
(
y
∣
f
)
P(\boldsymbol y|\boldsymbol f)
P ( y ∣ f ) 为高斯型 :
\qquad\qquad
P
(
y
i
∣
f
i
)
=
1
2
π
σ
f
i
exp
[
−
(
y
i
−
f
i
)
2
2
σ
f
i
2
]
,
∀
i
∈
S
P(y_{i}|f_{i})= \dfrac{1}{\sqrt{2\pi}\sigma_{f_i}}\exp\left[-\dfrac{(y_i-f_i)^2}{2\sigma_{f_i}^2}\right],\ \forall\ i\in\mathcal S
P ( y i ∣ f i ) = 2 π
σ f i 1 exp [ − 2 σ f i 2 ( y i − f i ) 2 ] , ∀ i ∈ S
\qquad
此时,
f
i
∈
{
1
,
⋯
,
M
}
f_{i}\in\{1,\cdots,M\}
f i ∈ { 1 , ⋯ , M } 表示类别的索引,而
σ
f
i
2
\sigma_{f_i}^2
σ f i 2 表示第
f
i
f_{i}
f i 类的方差。
\qquad
先验模型:
在MAP-MRF框架中,图像先验模型
P
(
f
)
P(\boldsymbol f)
P ( f ) 采用
G
i
b
b
s
Gibbs
G i b b s 分布:
\qquad\qquad
P
(
f
)
=
e
−
1
T
U
(
f
)
Z
P(\boldsymbol f)=\dfrac{e^{-\frac{1}{T}U(\boldsymbol f)}}{Z}
P ( f ) = Z e − T 1 U ( f )
\qquad
在图像分类问题中,只考虑
p
a
i
r
s
i
t
e
s
pair\ sites
p a i r s i t e s 子团。考虑图1 中的
r
=
1
r=1
r = 1 邻域系统,其子团类型为图2 中
(
b
)
,
(
c
)
(b),(c)
( b ) , ( c ) 两种结构,
p
a
i
r
s
i
t
e
s
pair\ sites
p a i r s i t e s 子团的能量函数可定义为:
\qquad\qquad
V
2
(
f
i
,
f
j
)
=
β
γ
(
f
i
,
f
j
)
,
γ
(
f
i
,
f
j
)
=
{
−
1
,
f
i
=
f
j
+
1
,
f
i
≠
f
j
,
∀
i
,
j
∈
S
V_{2}(f_{i},f_{j})=\beta\gamma(f_{i},f_{j}),\qquad \gamma(f_{i},f_{j})=\left\{ \begin{matrix} -1&,\ f_i=f_j\\ \\+1&,\ f_i \neq f_j \end{matrix}\right.,\qquad \forall\ i,j\in\mathcal S
V 2 ( f i , f j ) = β γ ( f i , f j ) , γ ( f i , f j ) = ⎩ ⎨ ⎧ − 1 + 1 , f i = f j , f i = f j , ∀ i , j ∈ S
\qquad
也就是说,在某个恒定温度时,当两个位置的像素值相等 时,子团势能降低 ,能量函数也降低 ,从而使得
P
(
f
)
P(\boldsymbol f)
P ( f ) 的概率越来越大。
图中为二分类的结果,除了边界处的子团会增加总能量之外,其他平坦区域的子团均会使得总能量值下降。 以图中的二值分割为例,
V
2
(
f
i
,
f
j
)
=
β
γ
(
f
i
,
f
j
)
V_{2}(f_{i},f_{j})=\beta\gamma(f_{i},f_{j})
V 2 ( f i , f j ) = β γ ( f i , f j ) 实际上表示的是边界的长度。 显然,边界越长(不可能整幅图像都是边界),能量函数值越大,这种情况出现的概率就越低。
\qquad
齐次
G
i
b
b
s
Gibbs
G i b b s 分布 的能量函数 就为:
U
(
f
)
=
∑
{
i
,
j
}
∈
C
2
V
2
(
f
i
,
f
j
)
=
∑
{
i
,
j
}
∈
C
2
β
γ
(
f
i
,
f
j
)
U(\boldsymbol f)=\displaystyle\sum_{\{i,j\}\in \mathcal C_{2}}V_{2}(f_{i},f_{j})=\displaystyle\sum_{\{i,j\}\in \mathcal C_{2}}\beta\gamma(f_{i},f_{j})
U ( f ) = { i , j } ∈ C 2 ∑ V 2 ( f i , f j ) = { i , j } ∈ C 2 ∑ β γ ( f i , f j )
\qquad
因此,图像分类就建模为一个最优化问题 :
\qquad\qquad
f
^
=
arg max
f
P
(
f
∣
y
)
=
arg max
f
{
ln
P
(
y
∣
f
)
+
ln
P
(
f
)
}
=
arg max
f
{
−
∑
i
=
1
N
×
M
(
ln
2
π
σ
f
i
+
(
y
i
−
f
i
)
2
2
σ
f
i
2
)
−
1
T
∑
{
i
,
j
}
∈
C
2
β
γ
(
f
i
,
f
j
)
}
=
arg min
f
{
∑
i
=
1
N
×
M
(
ln
2
π
σ
f
i
+
(
y
i
−
f
i
)
2
2
σ
f
i
2
)
+
1
T
∑
{
i
,
j
}
∈
C
2
β
γ
(
f
i
,
f
j
)
}
\begin{aligned}\hat\boldsymbol f&=\argmax_{\boldsymbol f} P(\boldsymbol f|\boldsymbol y)\\ &=\argmax_{\boldsymbol f}\{ \ln P(\boldsymbol y|\boldsymbol f)+\ln P(\boldsymbol f)\} \\ &=\argmax_{\boldsymbol f}\left\{-\displaystyle\sum_{i=1}^{N\times M}\left(\ln\sqrt{2\pi}\sigma_{f_i}+\dfrac{(y_i-f_i)^2}{2\sigma_{f_i}^2}\right)-\dfrac{1}{T}\displaystyle\sum_{\{i,j\}\in \mathcal C_{2}}\beta\gamma(f_{i},f_{j})\right\} \\ &=\argmin_{\boldsymbol f}\left\{\displaystyle\sum_{i=1}^{N\times M}\left(\ln\sqrt{2\pi}\sigma_{f_i}+\dfrac{(y_i-f_i)^2}{2\sigma_{f_i}^2}\right)+\dfrac{1}{T}\displaystyle\sum_{\{i,j\}\in \mathcal C_{2}}\beta\gamma(f_{i},f_{j})\right\} \\ \end{aligned}
f ^ = f a r g m a x P ( f ∣ y ) = f a r g m a x { ln P ( y ∣ f ) + ln P ( f ) } = f a r g m a x ⎩ ⎨ ⎧ − i = 1 ∑ N × M ( ln 2 π
σ f i + 2 σ f i 2 ( y i − f i ) 2 ) − T 1 { i , j } ∈ C 2 ∑ β γ ( f i , f j ) ⎭ ⎬ ⎫ = f a r g m i n ⎩ ⎨ ⎧ i = 1 ∑ N × M ( ln 2 π
σ f i + 2 σ f i 2 ( y i − f i ) 2 ) + T 1 { i , j } ∈ C 2 ∑ β γ ( f i , f j ) ⎭ ⎬ ⎫
\qquad
对该优化模型的求解,可采用
I
C
M
ICM
I C M ,
G
i
b
b
s
Gibbs
G i b b s 采样,
M
e
t
r
o
p
o
l
i
s
Metropolis
M e t r o p o l i s 采样等随机优化方法。