Sufficienza (statistica)

Da testwiki.
Versione del 25 mag 2023 alle 23:53 di imported>Castro Pretorio (growthexperiments-addlink-summary-summary:2|0|0)
(diff) ← Versione meno recente | Versione attuale (diff) | Versione più recente → (diff)
Vai alla navigazione Vai alla ricerca

Template:F

In statistica, la sufficienza di un'analisi statistica (intesa come funzione di un campione di osservazioni) definisce formalmente la capacità di tale funzione di rappresentare in maniera sintetica l'informazione contenuta nel campione. Una funzione che presenti tale caratteristica è definita, a partire dal lavoro di Ronald Fisher, una statistica sufficiente.

Definizione formale

Una definizione formale del concetto di sufficienza è la seguente:

Data una variabile casuale  X, di parametro incognito  ϑ, e una statistica  T(),  T(X) è sufficiente per  ϑ se la distribuzione di probabilità condizionata della  X data  T(X) non dipende da  ϑ.

La definizione sopra rappresenta una formalizzazione dell'idea che una statistica sufficiente sintetizzi tutta l'informazione sulla popolazione contenuta in un campione - variabile casuale  X. Nella prassi risulta ad ogni modo più agevole lavorare con il seguente criterio di fattorizzazione, originariamente proposto dallo stesso Fisher:

Sia  f(X;ϑ) la densità di probabilità della variabile casuale  X;  T(X) è una statistica sufficiente per  ϑ se e solo se esistono due funzioni  g,  h tali che:
 f(X;ϑ)=g(T(X);ϑ)h(X)

Un modo per interpretare l'espressione sopra è immaginare di far variare  X in maniera tale che il valore della statistica  T(X) sia costante; che effetto avrebbe questo sull'inferenza circa il valore del parametro  ϑ? Se il criterio di fattorizzazione è soddisfatto, nessuno, dal momento che la dipendenza della funzione di verosimiglianza  f(X;ϑ) da  ϑ risulta invariato.

Esempi

 T(X)=X1++Xn
è una statistica sufficiente per  p.
Ciò può vedersi considerando la distribuzione di probabilità congiunta:
Pr(X=x)=P(X1=x1,X2=x2,,Xn=xn).
Poiché le osservazioni sono indipendenti, quanto sopra può scriversi come:
px1(1p)1x1px2(1p)1x2pxn(1p)1xn
Raccogliendo le potenze di  p e  1p si ha:
pxi(1p)nxi=pT(x)(1p)nT(x)
che soddisfa il criterio di fattorizzazione, dove  h(X) è semplicemente la funzione costante 1. Si osservi che il parametro oggetto di stima (qui  p) interagisce con  X solo tramite  T(X).
  • Se  X1,,Xn sono indipendenti e uniformemente distribuite sull'intervallo  [0,ϑ], la funzione:
 max{X1,,Xn}
è una statistica sufficiente per  ϑ.
Ciò può vedersi considerando la distribuzione di probabilità congiunta:
Pr(X=x)=P(X1=x1,X2=x2,,Xn=xn).
Poiché le osservazioni sono indipendenti, quanto sopra può scriversi come:
H(θx1)θH(θx2)θH(θxn)θ
dove  H(X) è la Funzione gradino di Heaviside. Ciò si può scrivere come:
H(θmax(xi))θn
così che il criterio di fattorizzazione è ancora soddisfatto; anche in questo caso  h(X)=1.

Teorema di Rao-Blackwell

Poiché la distribuzione condizionata di  X data  T(X) non dipende da  ϑ, ciò vale anche per il valore atteso condizionato di  g(X) data  T(X), dove  g() è una funzione che soddisfa condizioni di regolarità che assicurano l'esistenza del valore atteso. Conseguentemente, tale valore atteso condizionato è esso stesso una statistica, e può essere utilizzato ai fini della stima. Se  g(X) è un qualsiasi tipo di stimatore per  ϑ, tipicamente il valore atteso condizionato  E[g(X)|T(X)] è uno stimatore migliore. Un modo per rendere questa affermazione più precisa è dato dal teorema di Rao-Blackwell. È spesso possibile costruire uno stimatore di prima approssimazione  g(X), e quindi computarne il valore atteso condizionato, ottenendo uno stimatore che è, sotto diversi punti di vista, ottimale.

Voci correlate

Altri progetti

Template:Interprogetto

Template:Portale