Primo teorema di Shannon: differenze tra le versioni

Da testwiki.
Vai alla navigazione Vai alla ricerca
imported>No2
WND
 
(Nessuna differenza)

Versione attuale delle 09:21, 6 nov 2024

Nella teoria dell'informazione, il primo teorema di Shannon (o teorema della codifica di sorgente), stabilisce dei limiti alla massima compressione possibile di un insieme di dati e definisce il significato operativo dell'entropia.

Il teorema stabilisce che, per una serie di variabili aleatorie indipendenti ed identicamente distribuite (i.i.d.) di lunghezza che tende ad infinito, non è possibile comprimere i dati in un messaggio più corto dell'entropia totale senza perdita di informazione. Al contrario, compressioni arbitrariamente vicine al valore di entropia sono possibili, con probabilità di perdita di informazione piccola a piacere.

Il teorema della codifica di sorgente per simboli di codice, stabilisce un limite inferiore e superiore alla minima lunghezza attesa di una serie di parole di codice, in funzione dell'entropia della parola in ingresso (vista come una variabile aleatoria) e della dimensione dell'alfabeto in esame.

Codifica di sorgente

La codifica di sorgente è un mappaggio da una sequenza di simboli generati da una sorgente ad una sequenza di simboli di un alfabeto (solitamente binario), tale che i simboli sorgenti possano essere esattamente recuperati dai bit (codifica senza perdite) o recuperati con qualche distorsione (codifica con perdite). Questo è il concetto che sta alla base della compressione dei dati.

In altre parole si può dire che è la modalità con la quale ciascun evento associato ad una sorgente discreta viene codificato mediante una sequenza di simboli.

Qualità dell'informazione

La codifica di sorgente introduce i concetti alla base della "qualità dell'informazione":

  • la quantità di informazione I(x) è data da I(x)=log2P(x), dove P(x) è la probabilità dell'informazione. Si può quindi dire che tra l'informazione stessa e la sua probabilità vi è una relazione inversamente proporzionale (un'alta probabilità porta ad una bassa quantità di informazione e viceversa).

Volendo, ora, stabilire un'unità di misura è opportuno far riferimento al caso in cui si ha bisogno dell'informazione minima per prendere una decisione. Trascurando il caso limite (quando l'evento è certo) nel quale esiste un solo risultato, il caso con il minimo bisogno di informazione è quello in cui esistono due possibili risultati equiprobabili (es.: il lancio di una moneta).

Si definisce con bit la quantità di informazione necessaria, e sufficiente, per discriminare e decidere tra due soli eventi equiprobabili: 1bit=Klog2(1/2), dove K è l'indice di proporzionalità.

  • L'informazione mediata, o entropia, H(x) è pesata dai contributi dell'informazione per la sua probabilità: H(x)=i=1nP(x)*I(x) [bit/simbolo].
  • La velocità di modulazione, o baudrate è la velocità di emissione dei simboli da parte della sorgente: V=1Ts, dove Ts è la durata del simbolo.
  • La velocità di trasmissione media dell'informazione del sistema, o bitrate, si calcola con: R=V*H(x).

Altri parametri importanti si riassumono in:

  • Lunghezza media del simbolo i=1nP(x)*ni (ni=lunghezza del codice)
  • Rendimento del codice η=H(x)L(η assume valori da 0 a 1)
  • Ridondanza γ=1η.

Teorema della codifica di sorgente

In teoria dell'informazione il teorema della codifica di sorgente (Claude Shannon, 1948) stabilisce che: Template:Citazione

Teorema della codifica di sorgente per simboli di codice

Sia X una variabile casuale a valori in un alfabeto finito Σ1 e sia f un codice decifrabile (ossia una funzione univoca) da Σ1* a Σ2*, dove |Σ2|=a. Sia S la risultante lunghezza della parola di codice f(X).

Se f è ottima nel senso che ha la minima lunghezza attesa per la parola di codice X, allora

H(X)log2a𝔼{S}<H(X)log2a+1

(Shannon 1948)

Dimostrazione: teorema della codifica di sorgente

Siano X una sorgente di variabili i.i.d. e X1,...,Xn una serie di uscite con entropia H(X) nel caso discreto ed uguale entropia differenziale nel caso continuo. Il teorema della codifica di sorgente stabilsce che per ogni ε>0, esiste un n abbastanza grande ed un codificatore che prende n uscite i.i.d. della sorgente e le mappa su n.(H(X)+ε) bit, in modo che i simboli sorgente X1:n siano recuperabili con probabilità di almeno 1ε.

Dimostrazione di raggiungibilità

Sia fissata una qualche ε>0. L'insieme tipico, Anε, è definito come

Anε={x1n:|1nlogp(X1,X2,...,Xn)Hn(X)|<ε}

La proprietà di equipartizione asintotica (AEP), mostra che per un n largo abbastanza, la probabilità che una sequenza generata dalla sorgente cada nell'insieme tipico, Anε, tende ad uno. In particolare per un n grande abbastanza,P(Anε)>1ε.

La definizione di insieme tipico, implica che le sequenze che cadono nell'insieme tipico soddisfano la condizione

2n(H(X)+ε)p(x1,x2,...,xn)2n(H(X)ε)

Si noti che:

  • La probabilità che una sequenza di X cada in Aε(n) è maggiore di 1ε
  • |Aε(n)|2n(H(X)+ε) , dato che la probabilità dell'insieme Aε(n) è al massimo uno.
  • |Aε(n)|(1ε)2n(H(X)ε). Per la prova è sufficiente utilizzare il limite superiore della probabilità di ogni termine nell'insieme tipico ed il limite inferiore sulla probabilità dell'insieme set Aε(n).

Dato che |Aε(n)|2n(H(X)+ε),n.(H(X)+ε) bit sono sufficienti per rappresentare ogni stringa nell'insieme.

L'algoritmo di codifica: il codificatore controlla che la sequenza di ingresso cada nell'insieme tipico; se sì produce in uscita l'indice della sequenza d'ingresso nell'insieme tipico; se no, il codificatore produce un arbitrario unumero binario n.(H(X)+ε) . Se la sequenza ricade nell'insieme tipico, il che avviene con probabilità di almeno 1ε, il codificatore non commette errori. Quindi la probabilità di errore del codificatore è inferiore a ε.

Prova dell'inverso

L'inverso si dimostra mostrando che qualunque insieme di dimensione inferiore a Anε, avrebbe probabilità al limite sicuramente inferiore a 1 .

Dimostrazione: teorema della codifica di sorgente per simboli di codice

Sia si la lunghezza di ogni possibile parola di codice xi (i=1,,n). Definito qi=asi/C, dove C è tale che qi=1.

Allora

H(X)=i=1npilog2pii=1npilog2qi=i=1npilog2asi+i=1nlog2Ci=1nsipilog2a𝔼{S}log2a

dove la seconda linea deriva dalla disuguaglianza di Gibbs e la quarta dalla disuguaglianza di Kraft-McMillan: C=i=1nasi1 e dunque logC0.

per la seconda disuguaglianza possiamo imporre

si=logapi

in modo che

logapisi<logapi+1

e quindi

asipi

e

asipi=1

e dalla disuguaglianza di Kraft, esiste una codice univoco con parole di codice aventi tale lunghezza. Quindi il minimo S soddisfa

𝔼{S}=pisi<pi(logapi+1)=pilog2pilog2a+1=H(X)log2a+1

Estensione a sorgenti indipendenti non-stazionarie

Codifica di sorgente senza perdita a tasso fisso per sorgenti indipendenti discrete e non stazionarie

Sia definito l'insieme tipico Anε come

Anε={x1n:|1nlogp(X1,X2,...,Xn)Hn¯(X)|<ε}

Allora per un dato δ>0, per un n grande abbastanza, Pr(Anε)>1δ.Ora ci limitiamo a codificare le sequenze nell'insieme tipico ed il solito metodo di codifica mostra che la cardinalità di questo insieme è inferiore a 2n(Hn¯(X)+ε). Quindi, in media, Hn¯(X)+ε bitn sono sufficienti per codificare la sequenza con probabilità di corretta decodifica superiore a 1δ, dove ε e δ possono essere rese piccole a piacere aumentando n.

Bibliografia

Voci correlate

Template:Portale