情報から学ぶ-クイズ

平均条件付き相互情報量

意味:イベントyjが発生した後に提供されるセットXに関する情報の平均量

和集合XYの平均条件付き相互情報量I(X; yj)> = 0

等号の条件は、集合Xの各xiがyjから独立していることです(つまり、XとYは互いに独立しています)。

平均相互情報量

説明:I(X; Y)は、セットYを受信することによって取得されたセットXに関する情報の平均量を表します。つまり、セットXおよびY全体について、セットYを受信した後に除去されたXに関する平均不確実性を表します。これは固定値です。

平均相互情報量とさまざまなタイプのエントロピーとの関係

I(X; Y)= H(X)-H(X | Y)= H(Y)-H(Y | X)

I(X; Y)= H(X)+ H(Y)-H(XY)

説明:

H(X):ソースXの平均不確実性(以前のエントロピー

H(Y):Yの平均不確実性

H(X | Y):Yを受け取った後、 X残りの不確かさは、チャネルの疑いとしても知られるチャネル損失を表します。Xの残りの不確かさは、損失エントロピーとしても知られる干渉によって引き起こされる損失です。

I(X; Y):Y受け取った後にXを排除するのに役立つ平均不確実性。

次の図からもわかります。H(X | Y)≤H(X)H(Y | X)≤H(Y)、等号を取るための必要十分条件は、XYが独立していることです。お互いの。

ポストエントロピー非増加プロパティ

チャネルでの情報の送信中、後部エントロピーは前のエントロピーを超えてはならず、せいぜい前のエントロピーと等しくてはなりません。エントロピーは常に減少する方向に発達し、せいぜい変化しません。エントロピーを減少させるプロセスは、情報をチャネル送信するプロセスです。 

極値

I(X; Y)<= H(X); I(X; Y)<= H(Y)

凸面機能

I(X; Y)は、ソース分布p( xi )とチャネル転送確率p(y j | xi )の凸関数です。

おすすめ

転載: blog.csdn.net/yyfloveqcw/article/details/124266860