Disuguaglianza di Fano

Da testwiki.
Versione del 12 ago 2016 alle 23:25 di imported>Bottuzzu (a capo in eccesso)
(diff) ← Versione meno recente | Versione attuale (diff) | Versione più recente → (diff)
Vai alla navigazione Vai alla ricerca

Nella teoria dell'informazione, la Disuguaglianza di Fano mette in relazione l'equivocazione di un canale rumoroso con la probabilità d'errore nella decodifica di un simbolo ricevuto. È stata scoperta e dimostrata dallo scienziato Robert Fano.

Disuguaglianza di Fano

Se le variabili aleatorie X=xi e Y=yj rappresentano i simboli (estratti da un alfabeto di M possibili simboli) in ingresso ed in uscita ad un canale rumoroso ed hanno una densità di probabilità congiunta P(x,y), il canale è affetto da una probabilità di errore

P(e)=i=0M1j=iP(yj,xi)

e la disuguaglianza di Fano si esprime allora come

H(X|Y)H(e)+P(e)log(M1),

in cui

H(X|Y)=i,jP(xi,yj)logP(xi|yj)

è l'entropia condizionata, detta equivocazione in quanto rappresenta la quantità d'informazione media persa nel canale; e

H(e)=P(e)logP(e)(1P(e))log(1P(e))

è l'entropia binaria corrispondente ad una sorgente binaria stazionaria e senza memoria che emette il simbolo 1 con probabilità P(e) ed il simbolo 0 con probabilità 1P(e).

La disuguaglianza di Fano fornisce quindi un limite inferiore alla probabilità d'errore; si mostra infatti che se l'entropia di X eccede la capacità del canale è impossibile che l'informazione trasmessa attraverso il canale sia ricevuta con probabilità d'errore arbitrariamente piccola.

Dimostrazione

Siano X e Y due variabili casuali e X~=f(Y) un estimatore di X ottenuto dall'osservazione di Y. Sia P(e)=P[XX~] la probabilità di errore.

Si consideri la variabile casuale binaria E tale che:

E={1se XX~0se X=X~

che ha quindi una distribuzione del tipo pE=(1P(e),P(e)).

Si consideri ora l'entropia:

H(X,E|Y)=H(X|Y)+H(E|X,Y)=H(E|Y)+H(X|E,Y)

E è funzione di X e X~ e di conseguenza di X e Y, da cui H(E|X,Y)=0.
Si ottiene quindi

H(X|Y)=H(E|Y)+H(X|E,Y)H(e)+H(X|E,Y)     (1)

sfruttando la disuguaglianza H(E|Y)H(E)=H(e).

A questo punto è possibile riscrivere H(X|E,Y) come segue:

H(X|E,Y)=pE(0)H(X|Y,E=0)+pE(1)H(X|Y,E=1)     (2)

per il quale il primo termine del membro di destra si annulla perché dato E=0 l'incertezza sulla conoscenza di X è nulla, mentre per il secondo, sapendo a priori di avere un errore, vale la disuguaglianza

H(X|Y,E=1)log(|𝒳|1)

dove |𝒳| è il numero di valori possibili che la variabile X può assumere. Sostituendo (2) in (1) si ottiene:

H(X|Y)H(e)+p(e)log(|𝒳|1)

dimostrando quindi l'asserto.

Bibliografia

  • R. Fano, Transmission of information; a statistical theory of communications. Cambridge, Mass., M.I.T. Press, 1961.

Voci correlate

Template:Portale