Distribuzione Beta

Da testwiki.
Versione del 10 dic 2023 alle 11:04 di 151.31.177.83 (discussione)
(diff) ← Versione meno recente | Versione attuale (diff) | Versione più recente → (diff)
Vai alla navigazione Vai alla ricerca

Template:F

Template:Variabile casuale In teoria delle probabilità e in statistica, la distribuzione B (Beta) è una distribuzione di probabilità continua definita da due parametri α e β sull'intervallo unitario [0,1].

Questa distribuzione nasce in modo molto naturale nella inferenza bayesiana, perché governa la probabilità p di un processo di Bernoulli a posteriori dell'osservazione di α1 "successi" e β1 "fallimenti", quando p è a priori distribuita uniformemente tra 0 e 1.

Definizione

La distribuzione Beta di parametri (α,β) (entrambi positivi) è definita sull'intervallo [0,1] con funzione di densità di probabilità

f(x)=xα1(1x)β1B(α,β).

In altri termini la funzione di densità di probabilità è proporzionale alla funzione

xα1(1x)β1,

riscalata per un fattore dato dalla funzione Beta

B(α,β)=01xα1(1x)β1dx;

in questo modo ha probabilità totale P(X[0,1])=1.

La sua funzione di ripartizione è la funzione Beta incompleta regolarizzata

F(x)=Ix(α,β)=Bx(α,β)B(α,β)=0xtα1(1t)β1dt01tα1(1t)β1dt.

Caratteristiche

I momenti semplici di una variabile aleatoria X con distribuzione Beta di parametri (α,β) sono

μk=E[Xk]=01xα+k1(1x)β1dx01xα1(1x)β1dx=B(α+k,β)B(α,β)=(α)k(α+β)k,

dove xk indica il fattoriale crescente con k fattori, (x)k=x(x+1)(x+k1). (L'ultima uguaglianza può essere dedotta dall'espressione della funzione Beta attraverso la funzione Gamma, B(α,β)=Γ(α)Γ(β)/Γ(α+β) e dalla proprietà Γ(x+1)=xΓ(x).)

I momenti semplici soddisfano quindi la relazione ricorsiva

μk+1=α+kα+β+kμk.

In particolare, la distribuzione ha:

  • valore atteso E[X]=αα+β;
  • varianza Var(X)=αβ(α+β)2(α+β+1);
  • indice di asimmetria γ1=2βαα+β+2α+β+1αβ;
  • indice di curtosi γ2=6α32α2β2αβ2+β3+α24αβ+β2αβ(α+β+2)(α+β+3).

Invertendo le relazioni qui sopra, che forniscono il valore atteso e la varianza in funzione dei parametri α e β, possiamo esprimere univocamente i suddetti parametri in termini del valore atteso e della varianza:

α=E[X](E[X](1E[X])Var(X)1);
β=(1E[X])(E[X](1E[X])Var(X)1).

Queste formule vengono applicate nel metodo dei momenti, con la media e la varianza osservate su un campione.

L'entropia è

H(X)=logB(α,β)(α1)ϝ(α)(β1)ϝ(β)+(α+β2)ϝ(α+β),

dove ϝ è la funzione digamma.

La moda della distribuzione dipende dai segni di α1 e β1, ed è unica solo se almeno uno dei due è positivo:

se α>1 e β>1 allora la moda è α1α+β2;
se α>1 (o α=1) e β<1 allora la moda è 1;
se β>1 (o β=1) e α<1 allora la moda è 0.

(La funzione di densità di probabilità ha un asintoto in 0 se α<1, in 1 se β<1.)

Relazioni con altre distribuzioni

Una distribuzione Beta può essere definita su un qualunque intervallo [a,b], costruendo una nuova variabile casuale Y=a+(ba)X.

Se X segue la distribuzione Beta di parametri (α,β) allora 1X segue la distribuzione Beta di parametri (β,α).

  • La distribuzione di Dirichlet è una generalizzazione della distribuzione Beta: essa descrive la distribuzione a posteriori dei parametri di una distribuzione multinomiale a posteriori, appunto, di un'osservazione. La distribuzione di Dirichlet con due parametri è esattamente la distribuzione Beta.
  • Per α=β=32 la densità di probabilità del tipo Beta f(x)=x(1x) è, in termini geometrici, la metà superiore di una circonferenza: (2f(x))2+(2x1)2=1, descrive un semicerchio. La variabile aleatoria Y=r(2X1) segue una distribuzione di Wigner di parametro r.
  • Se X e Y sono due variabili aleatorie indipendenti con distribuzioni Gamma di rispettivi parametri (α,θ) e (β,θ), allora la variabile aleatoria XX+Y segue la distribuzione Beta di parametri (α,β).
  • Se la variabile aleatoria X segue la distribuzione Beta di parametri (α,β) allora la variabile aleatoria T=X1X è descritta dalla distribuzione Beta del secondo tipo, che ha funzione di densità di probabilità
f(t)=xα1/(1x)α+βB(α,β)
  • La distribuzione di Wilks Λ(p,m,n) può essere interpretata come la distribuzione che governa il prodotto X1Xn di n variabili aleatorie indipendenti X1,...,Xn con rispettivi parametri (m+1p2,p2),...,(m+np2,p2).
  • Se Y è una variabile aleatoria con distribuzione di Kumaraswamy di parametri (a,b) allora X=Ya segue la distribuzione Beta di parametri (1,b).

Inferenza bayesiana

La distribuzione Beta e il processo di Bernoulli

E' immediato dimostrare che, se X è distribuita come una v.c. binomiale con parametri n e π

f(x|π)=Binom(x|n;π)

e il parametro π è distribuito a priori come una v.c. Beta con i parametri a e b

g(π)=Beta(π|a;b)

allora il parametro π è distribuito a posteriori, anch'esso, come una v.c. Beta, ma con parametri a+x e b+n-x

g(π|x)=Beta(π|a+x;b+nx)

Come detto in precedenza, qualora il parametro π sia distribuito a priori come una variabile casuale rettangolare nell'intervallo [0;1] (ovvero ipotizzando a priori tutti i possibili valori di π equiprobabili), e pertanto a=1 e b=1, allora la distribuzione a posteriori del parametro π è una Beta con parametri x+1 e n-x+1

g(π|x)=(n+1)(nx)πx(1π)nx

essa ha come valore modale p

p=xn, che corrisponde alla stima usata in ambito frequentistico, mentre il valore atteso o media, è
p=x+1n+2, che per x<n/2 è maggiore del valore modale xn. Il valore atteso minimizza lo scarto quadratico.

Infatti, la probabilità di ottenere α1 successi e β1 fallimenti in un processo di Bernoulli di parametro p è (α+β2α1)pα1(1p)β1, proporzionale alla densità f(p) della distribuzione Beta di parametri (α,β).

Pertanto, come detto sopra, se la variabile aleatoria S segue una distribuzione binomiale (P,α+β2) con parametro aleatorio P distribuito a priori uniformemente sull'intervallo unitario [0,1], a posteriori dell'osservazione S=α1 il parametro P segue la distribuzione B(α,β).

Più in generale, se S è una variabile aleatoria con distribuzione binomiale (P,n) e il parametro P segue a priori la distribuzione B(α,β), allora a posteriori dell'osservazione S=s il parametro P segue la distribuzione B(α+s,β+ns).

Il caso della distribuzione uniforme a priori è un caso particolare di quest'ultimo, essendo B(1,1)=𝒰(0,1).

Priori coniugate e la v.c. binomiale negativa

Se X è distribuita come una v.c. binomiale negativa con parametri m e θ

f(x|θ)=BinNeg(x|m;θ)

e il parametro θ è distribuito a priori come una v.c. Beta con i parametri a e b

g(θ)=Beta(θ|a;b)

allora il parametro θ è distribuito a posteriori anch'esso come una v.c. Beta, ma con parametri a+m e b+x

g(θ|x)=Beta(θ|a+m;b+x)

Qualora la distribuzione a priori sia una variabile casuale rettangolare nell'intervallo [0;1] (ovvero ipotizzando a priori tutti i possibili valori di θ equiprobabili), e pertanto a=1 e b=1, allora la distribuzione a posteriori è una Beta con parametri m+1 e x+1

che ha come valore modale t

t=m/(m+x)

Similmente, se la variabile aleatoria T segue la distribuzione di Pascal 𝒩(P,n) e P segue a priori la distribuzione B(α,β), allora a posteriori dell'osservazione T=t il parametro P segue la distribuzione B(α+n,β+t).

Voci correlate

Altri progetti

Template:Interprogetto

Collegamenti esterni

Template:Probabilità Template:Controllo di autorità Template:Portale