Entropia condizionale

Da testwiki.
Vai alla navigazione Vai alla ricerca

Template:U

Nella teoria dell'informazione l'entropia condizionale è una misura della quantità di informazione necessaria per descrivere il valore di una variabile aleatoria X noto il valore di un'altra variabile aleatoria Y. Nella trasmissione attraverso un canale di comunicazione rappresenta la quantità rimanente di incertezza del valore all'ingresso al canale dopo che è stato osservato il valore di uscita. L'entropia di X condizionata da Y si definisce come H(X|Y).

Definizione

Se H(X|Y=yk) è l'entropia della variabile X condizionata dalla variabile Y che assume un certo valore yk, allora H(X|Y) è il risultato della media pesata di H(X|Y=yk) su tutti i possibili valori yk che la Y può assumere.

Dato un alfabeto di simboli in ingresso X={x0,x1,...,xJ1}, un alfabeto di simboli in uscita Y={y0,y1,...yK1} con probabilità p(y0),...,p(yK1) l'entropia condizionale si definisce come:

H(X|Y) k=0K1H(X|Y=yk)p(yk)

=k=0K1j=0J1p(xj|yk)p(yk)log2[1p(xj|yk)]

=k=0K1j=0J1p(xj,yk)log2[1p(xj|yk)]

dove nell'ultima espressione si è utilizzata la relazione tra probabilità congiunta e condizionata: p(xj,yk)=p(xj|yk)p(yk).

Bibliografia

Template:Portale