Entropia congiunta

Da testwiki.
Vai alla navigazione Vai alla ricerca

Template:U

Entropie individuali (H(X),H(Y)), congiunte (H(X,Y)), ed entropie condizionali per una coppia di sottosistemi correlati X,Y con mutua informazione I(X; Y).

L'entropia congiunta è una misura dell'incertezza associata ad un insieme di variabili casuali.

Definizione

L'entropia congiunta di due variabili X e Y è definita come:

H(X,Y)=xyP(x,y)log2[P(x,y)]

dove x e y sono valori di X and Y, rispettivamente, P(x,y) è la probabilità che questi due valori valori vengano assunti contemporaneamente dalle variabili e vale:

limP(x,y)0P(x,y)log2[P(x,y)]=0.

Per un numero di variabili maggiore di due X1,...,Xn la formula si estende a:

H(X1,...,Xn)=x1...xnP(x1,...,xn)log2[P(x1,...,xn)]

in cui x1,...,xn sono valori rispettivamente di X1,...,Xn, P(x1,...,xn) è la probabilità che questi valori vengano assunti contemporaneamente dalle variabili e vale:

limP(x1,...,xn)0P(x1,...,xn)log2[P(x1,...,xn)]=0.

Proprietà

Maggiore o uguale delle entropie individuali

L'entropia congiunta di un insieme di variabili è maggiore o uguale rispetto a tutte le entropie individuali delle variabili nell'insieme

H(X,Y)max[H(X),H(Y)]
H(X1,...,Xn)max[H(X1),...,H(Xn)]

Minore o uguale alla somma delle entropie individuali

L'entropia congiunta di un insieme di variabili è minore o uguale alla somma delle entropie individuali delle variabili nell'insieme. Questo è un esempio di subadditività. Questa disuguaglianza diventa un'uguaglianza se e solo se X e Y sono statisticamente indipendenti.

H(X,Y)H(X)+H(Y)
H(X1,...,Xn)H(X1)+...+H(Xn)

Relazioni con altre misure di entropia

L'entropia congiunta è utilizzata nella definizione dell'entropia condizionale

H(X|Y)=H(Y,X)H(Y)

e della mutua informazione

I(X;Y)=H(X)+H(Y)H(X,Y)

Nell'informatica quantistica, l'entropia congiunta è generalizzata nell'entropia quantistica congiunta.