Convergenza di variabili casuali

Da testwiki.
Vai alla navigazione Vai alla ricerca

In teoria della probabilità e statistica è molto vivo il problema di studiare fenomeni con comportamento incognito ma, nei grandi numeri, riconducibili a fenomeni noti e ben studiati. A ciò vengono in soccorso i vari teoremi di convergenza di variabili casuali, che appunto studiano le condizioni sotto cui certe successioni di variabili casuali di una certa distribuzione tendono ad altre distribuzioni.

I più importanti risultati raggiungibili sotto forma di convergenza di variabili casuali sono la legge dei grandi numeri e il teorema centrale del limite, che afferma che, col crescere della numerosità di un campione, la distribuzione di probabilità della sua media è più o meno come quella di una gaussiana e la legge dei grandi numeri, che giustifica l'utilizzo della media del campione come stima del valore atteso della legge di ogni singola osservazione.

Si distinguono più tipi di convergenza. Ognuna di queste condizioni si esporrà qua per variabili casuali reali univariate, ma si generalizza senza troppe difficoltà per variabili casuali multivariate.

Convergenza in distribuzione

Una successione di variabili casuali (Xn)n con funzioni di ripartizione Fn si dice convergente in distribuzione o convergente in legge alla variabile casuale X con funzione di ripartizione F, cioè XndX, se il seguente limite esiste

limnFn(x)=F(x)

in ogni punto x in cui F risulta continua. Questo è il tipo di convergenza usato nel teorema del limite centrale.

Poiché FX(x)=P(Xx), ciò che la convergenza in distribuzione implica è che all'aumentare di n la probabilità che la successione assuma valori minori o uguali ad x (ovvero assuma valori in un certo intervallo) sarà sempre più simile alla probabilità che X assuma valori nello stesso intervallo. Si noti che questo non richiede che X e Xn assumano i medesimi valori. Da questa osservazione segue che X e Xn possono essere definiti a partire da spazi di probabilità modellanti esperimenti casuali differenti.

Esempi

  • Xn=1n converge a X=0. Vale infatti
Fn(x)=I[1/n,+)={0,x<1n1,x1n

e quindi

limnFn(x)=FX(x)=I[0,+)={0,x<01,x0

Teoremi

  • XndX se e solo se per ogni funzione continua e limitata g(x) vale limnE[g(Xn)]=E[g(X)]
  • Se XndX e l'unione dei supporti delle Xn è limitato allora E[Xn]E[X]
  • Se XndX e h è una funzione continua, allora h(Xn)dh(X)
  • Se Xn è una variabile k-variata, Xn=(Xn,1,...,Xn,k) e XndX allora Xn,idXi per ogni i=1,...,k

Convergenza in probabilità

Come notato prima, la convergenza in distribuzione dà informazioni relative alla sola distribuzione della variabile casuale limite, mentre nulla possiamo dire sugli effettivi valori studiati. Per questo si introduce una nozione di convergenza più forte.

Diremo allora che una successione di variabili casuali (Xn)n converge in probabilità alla variabile casuale X, in simboli XnpX, se per ogni ε>0

limnP(|XnX|<ε)=1[1]

o equivalentemente

limnP(|XnX|ε)=0

Formalmente, scelti ε>0, δ>0 esiste N tale che per ogni nN

P(|XnX|<ε)1δ.

Questo tipo di convergenza è usato nella legge debole dei grandi numeri.

Quello che la definizione di convergenza in probabilità sostiene è che, all'aumentare di n, la probabilità che i valori assunti dalla successione differiscano dai valori assunti da X meno di una quantità positiva ε piccola a piacere, si avvicina sempre più ad 1.

Teoremi

  • XnpX se e solo se XnXp0.
  • XnpX (variabili k-variate) se e solo se Xn,ipXi per ogni i=1,...,k.
  • Se XnpX, allora XndX.
  • Se XndX e X è degenere (ovvero è una v.c. costante), allora XnpX.
  • Se XnpX e g è una funzione continua, allora g(Xn)pg(X).
  • Se XnpX allora XnX quasi certamente a meno di sottosuccessioni.

Convergenza quasi certa

Una successione di variabili casuali (Xn)n si dice convergere quasi certamente (o "quasi ovunque" se non anche "P quasi certamente" intendendo con P la probabilità, abbreviabile come "P q.c") alla variabile casuale X, in simboli Xnq.c.X o Xnq.o.X, se

P(limnXn=X)=1.

Poiché la funzione di probabilità P è definita su eventi, ovvero insiemi di esiti, la formula precedente può essere riscritta come

P({ωΩ|limnXn(ω)=X(ω)})=1.

Ovvero, dato lo spazio di probabilità (Ω,Σ,P), il limite

limnXn(ω)=X(ω)

esiste per ogni ωU t.c. P(U)=1.

Quello che la definizione sostiene è che le v.c. Xn e X differiranno, in limite, solo su eventi di probabilità nulla. Questa è la nozione di convergenza più forte, perché esprime il fatto che, all'aumentare della numerosità del campione, è un evento quasi certo che le realizzazioni campionarie tenderanno a coincidere con le osservazioni della variabile casuale X. Questo è il tipo di convergenza usato nella legge forte dei grandi numeri.

Teoremi

  • Xnq.c.X se e solo se XnXq.c.0.
  • Xnq.c.X (variabili k-variate) se e solo se Xn,iq.c.Xi per ogni i=1,...,k.
  • Xnq.c.X se e solo se per ogni ε>0, limnP(mn{|XmX|ε})=1.
  • Se Xnq.c.X, allora XnpX[2].
  • Dalla precedente si ricava Xnq.c.XXndX, poiché XnpXXndX

Dimostrazione convergenza quasi certa implica convergenza in probabilità

L'affermazione segue direttamente dalla terza proprietà dei teoremi precedenti; infatti 1=limn+P(mn{|XmX|ε})P({|XnX|ε})1  XnpX.

Resta quindi da mostrare che è vera la caratterizzazione della convergenza quasi certa. Dalla definizione di convergenza quasi certa si ha che:

Xnq.c.XP({ωΩ:limnXn(ω)=X(ω)})=1.

Sia A={ωΩ:limnXn(ω)=X(ω)}, così che:

ωAε>0,n: mn|XmXn|ε

k,n: mn|XmXn|1k

ωknmn{|Xm(ω)X(ω)|1k}.

Se definiamo gli eventi Ak=nmn{|Xm(ω)X(ω)|1k}, allora per ogni k fissato abbiamo che:

1=P(A)=P(jAj)P(Ak)1  kP(Ak)=1.

Ma quindi se definiamo Bn=mn{|Xm(ω)X(ω)|1k}, dato che BnnBn grazie alla continuità da sotto della probabilità abbiamo che: per ogni k, 1=P(Ak)=P(nBn)=limnP(Bn).

Equivalentemente: ε>0, limnP(mn{|Xn(ω)X(ω)|}ε)=1.

Convergenza in media r-esima

Una successione di variabili casuali (Xn)n si dice convergere in media r-esima, o in norma r-esima, alla variabile casuale X, con r>0, se[3]:

limn𝔼(|XnX|r)=0

Se r=1, Xn si dice convergere in media a X. Se r=2, la convergenza si dice in media quadratica.

Secondo l'approccio assiomatico di Kolmogorov, questa convergenza equivale alla convergenza in norma Lp.

Teoremi

  • Se XnX in media r-esima con r>0, allora XnX in probabilità[2]
  • Se XnX in media r-esima con r>0, allora XnX quasi certamente a meno di sottosuccessioni
  • Se XnX in media r-esima e r>s1, allora XnX in media s-esima

Controesempi

Qui di seguito sono riportati alcuni controesempi che mostrano che la convergenza in probabilità è strettamente più debole della convergenza quasi certa e in Lp, le quali a loro volta non sono confrontabili, cioè esistono variabili aleatorie che convergono in una ma non nell'altra.

Convergenza in probabilità non implica né convergenza quasi certa né convergenza in media p-esima

Siano (Zn)n variabili aleatorie indipendenti con distribuzione di Bernoulli, ZnBe(1n). Sia Xn=2nZn, allora Xnp0, ma non quasi certamente o in Lp.

Convergenza in probabilità

P(|Xn0|ε)=P(Xnε)=P(Znε2n)P(Zn=1)=1n0.

Impossibilità di convergenza quasi certa

Dato che nP(Zn=1)=n1n=+, allora per il lemma di Borel-Cantelli si ha che P(lim supn{Zn=1})=1.

Allora quasi certamente Xn=2nZn per infiniti n; cioè esiste Ω~Ω, P(Ω~)=1, tale che ωΩ~ Xn(ω)=2n per infiniti n. Quindi Xn diverge lungo una sottosuccessione e dunque non può convergere quasi certamente a 0.

Impossibilitò di convergenza in media p-esima

Per ogni p>0 si ha che:

E(|Xn0|p)=E(Xnp)=E(2npZn)=2npE(Zn)=2npnn+.

Convergenza quasi certa non implica convergenza in media p-esima

Siano (Zn)n variabili aleatorie indipendenti con distribuzione di Bernoulli, ZnBe(1n2) e siano Xn=2nZn. Dal lemma di Borel-Cantelli P(lim supn{Zn=1})=0, cioè quasi certamente Zn=1 solo per un numero finito di n. Allora quasi cetamente Zn=0 definitivamente, quindi Xn=2nZn=0 definitivamente, in particolare limnXn=0.

Tuttavia non si ha la convergenza in Lp perché per ogni p>0 si ha che

E(|Xn0|p)=E(Xnp)=E(2npZn)=2npE(Zn)=2npn2n+.

Convergenza in media p-esima non implica convergenza quasi certa

Se ZnBe(1n) indipendenti, allora analogamente a quanto detto nel primo esempio si ha che Zn non converge quasi certamente a 0; mentre per ogni p>0, E(|Xn0|p)=1n0, cioè ZnLp0.

Note

Bibliografia

Template:Probabilità Template:Portale