Disuguaglianza di Markov

Da testwiki.
Vai alla navigazione Vai alla ricerca

Template:F In teoria della probabilità e statistica, la disuguaglianza di Markov afferma che, per una variabile casuale X non negativa il cui valore atteso esiste, vale

P(Xα)𝔼[X]α.

Questa disuguaglianza permette di stabilire un limite superiore al valore di probabilità dalla sola conoscenza del valore atteso 𝔼[X], a condizione che la variabile casuale sia definita non negativa.

La disuguaglianza di Markov è anche utilizzata nella dimostrazione della disuguaglianza di Čebyšëv.

Dimostrazione

Si definiscano le variabili casuali X e I come segue:

X:Ω0+,

con Ω spazio campionario e

I={1se Xα,0se X<α,

con α+. Chiaramente per ogni α non nullo, vale la seguente disuguaglianza larga 0IXα.

Supponiamo inoltre che per la variabile aleatoria X esiste 𝔼[X], allora

P(Xα)=𝔼[I].

Il valore atteso è definito come somma di tutti i valori che la variabile aleatoria può assumere moltiplicati per la probabilità che tale variabile assuma effettivamente tali valori, nel nostro caso:

𝔼[I]=0P(I=0)+1P(I=1)=P(I=1).

Ma la probabilità che I sia uguale a 1 è proprio la probabilità che X sia maggiore o uguale ad α, quindi

𝔼[I]𝔼[Xα].

Il valore atteso mantiene la disuguaglianza degli argomenti poiché si tratta di una funzione non decrescente, dato che gli argomenti sono variabili non negative. Basti pensare alla definizione di valore atteso, nel caso discreto e quello continuo, la quale genera serie a termini positivi in un caso e integrali di funzioni positive nell'altro. Per la linearità del valore atteso si ha

𝔼[Xα]=𝔼[X]α.

Quindi si conclude che

P(Xα)𝔼[X]α.

Disuguaglianza di Čebyšëv

Template:Vedi anche Partendo dall'appena dimostrata disuguaglianza possiamo ottenere come corollario il seguente enunciato:

P(|X𝔼[X]|γ)Var(X)γ2

con parametro γ positivo. Per farlo definiamo una variabile aleatoria X:Ω e associamo ad essa la variabile aleatoria Y=(X𝔼[X])2.

Così definita Y è una variabile aleatoria non negativa, pertanto applichiamo ad essa la disuguaglianza di Markov, ottenendo

P(Yγ2)𝔼[Y]γ2P((X𝔼[X])2γ2)𝔼[(X𝔼[X])2]γ2.

A destra otteniamo la definizione di varianza

Var(X)=𝔼[(X𝔼[X])2],

e sapendo che in generale per ogni x,μ,α vale

(xμ)2α2|xμ||α|,

otteniamo quanto si voleva dimostrare:

P(|X𝔼[X]|γ)Var(X)γ2.

Ponendo il parametro t=γVar(X), il precedente risultato può essere riscritto

P(|X𝔼[X]|tVar(X))1t2.

Si può semplificare la scrittura usando, anziché la varianza, la deviazione standard σ definita proprio come sua radice:

P(|X𝔼[X]|tσ)1t2.

Legge debole dei grandi numeri

La disuguaglianza di Čebyšëv, viene inoltre utilizzata nella famosa legge dei grandi numeri, di cui qui verrà dimostrata il suo enunciato cosiddetto "debole". L'enunciato è il seguente:

Consideriamo una popolazione di N variabili aleatorie indipendenti tutte di valore atteso μ e varianza σ2.

{Xn}n, nN;
𝔼[Xn]=μ,n;
Var(Xn)=σ2,n.

Definendo lo stimatore del valor medio

X¯N=1Nn=1NXn,

si ha

limNP(|X¯Nμ|<ϵ)=1,

per ogni ϵ+. Il che vuol dire che aumentando la grandezza della popolazione in nostro possesso, lo stimatore del valor medio va sempre di più a coincidere con il valore atteso.

Dimostrazione

Applichiamo la disuguaglianza di Čebyšëv allo stimatore del valor medio:

P(|X¯N𝔼[X¯N]|ϵ)Var(X¯N)ϵ2

per ogni ϵ+. Per le proprietà di linearità del valore atteso abbiamo che in generale la media aritmetica di variabili aleatorie di diverso valore atteso corrisponde a uno stimatore di valore atteso pari alla media aritmetica dei singoli valori attesi. Nel nostro caso tutte le Xn hanno lo stesso valore atteso μ, pertanto

𝔼[X¯N]=1Nn=1N𝔼[Xn]=μ.

Poiché le Xn sono indipendenti tra di loro, per ogni a,b, e per ogni i,j tale che ijN, si ha

Var(aXi+bXj)=a2Var(Xi)+b2Var(Xj).

Nel nostro caso quindi si ha che

Var(X¯N)=1N2n=1NVar(Xn)=σ2N.

Riscrivendo la relazione alla luce di quanto detto, si ottiene

P(|X¯Nμ|ϵ)σ2Nϵ2,
1P(|X¯Nμ|ϵ)1σ2Nϵ2.

Il primo termine può essere riscritto mediante il complementare dell'evento di cui stiamo calcolando la probabilità

1P(|X¯Nμ|ϵ)=P(|X¯Nμ|<ϵ).

Ma la probabilità di qualunque evento è al più 1:

1P(|X¯Nμ|<ϵ)1σ2Nϵ2.

Pertanto se portiamo al limite tale espressione otteniamo quanto stavamo cercando per il teorema del confronto:

limNP(|X¯Nμ|<ϵ)=1.

Il che vuol dire che è certo l'evento preso in considerazione, ossia che definitivamente la distanza tra X¯N e μ è maggiorata da ϵ arbitrario positivo

ϵ>0 N¯ tale che N>N¯
|X¯Nμ|<ϵ.

Il che significa in conclusione, per definizione di limite, che

limNX¯N=μ.

Voci correlate

Collegamenti esterni

Template:Probabilità Template:Portale