Disuguaglianza di Cramér-Rao

Da testwiki.
Versione del 23 gen 2022 alle 17:37 di imported>Marco Ciaramella (Bibliografia: Harold Silverstone)
(diff) ← Versione meno recente | Versione attuale (diff) | Versione più recente → (diff)
Vai alla navigazione Vai alla ricerca

In statistica, la disuguaglianza di Cramér-Rao, che prende il nome da Harald Cramér e Calyampudi Radhakrishna Rao, afferma che il reciproco della matrice informazione di Fisher  (ϑ) per un parametro  ϑ costituisce un limite inferiore alla varianza di uno stimatore corretto per il parametro (denotato  ϑ^):

 var(ϑ^)1(ϑ)=1nE[(ϑlnf(X;ϑ))2]

In alcuni casi, non esiste uno stimatore corretto che consegue il limite inferiore così stabilito.

Non è infrequente trovare riferimenti alla disuguaglianza di Cramér-Rao come al limite inferiore di Cramér-Rao.

Si ritiene che il matematico francese Maurice René Fréchet sia stato il primo a scoprire e dimostrare questa disuguaglianza.[1]

Condizioni di regolarità

La disuguaglianza di Cramér-Rao si fonda su due deboli condizioni di regolarità che caratterizzano la funzione di densità  f(x;ϑ), e lo stimatore adottato,  T(X). Tali condizioni richiedono che:

  • L'informazione di Fisher sia sempre definita; ciò equivale a richiedere che, per ogni  x tale che  f(x;ϑ)>0,
 ϑlnf(x;ϑ)<
 ϑ[T(x)f(x;ϑ)dx]=T(x)[ϑf(x;ϑ)]dx
ogniqualvolta il secondo membro della relazione sopra è finito.

Laddove la seconda condizione di regolarità è estesa al secondo ordine di derivazione, è possibile esprimere la disuguaglianza tramite una forma alternativa dell'informazione di Fisher, così che il limite inferiore di Cramér-Rao è dato da:

 var(ϑ^)1(ϑ)=1E[2ϑ2lnf(X;ϑ)]

In alcuni casi, può risultare più semplice applicare la disuguaglianza nella forma testé espressa.

Si osservi che uno stimatore non corretto potrà avere una varianza o uno scarto quadratico medio inferiore al limite di Cramér-Rao; questo perché la disuguaglianza è riferita esclusivamente a stimatori corretti.

Dimostrazione

La dimostrazione della disuguaglianza di Cramér-Rao passa attraverso la verifica di un risultato più generale; per un qualsiasi stimatore (statistica di un campione  X)  T=t(X), il cui valore atteso è denotato da  ψ(ϑ), e per ogni  ϑ:

 var(t(X))[ψ(ϑ)]2(ϑ)

La disuguglianza di Cramér-Rao discende direttamente da quest'ultima relazione, come caso particolare.

Sia dunque  X una variabile casuale, avente funzione di densità  f(x;ϑ).  T=t(X) è una statistica utilizzata come estimatore del parametro  ϑ. Sia inoltre  V il suo score, o derivata logaritmica rispetto a ϑ:

 V=ϑlnf(X;ϑ)

Il valore atteso  E(V) è nullo. Ciò a sua volta implica che  cov(V,T)=E(VT)E(V)E(T)=E(VT). Espandendo quest'ultima espressione, si ha:

 cov(V,T)=E(Tϑlnf(X;ϑ))

Svolgendo la derivata tramite la regola della catena:

 xlng(x)=1g(x)gx

e conoscendo la definizione di speranza matematica:

 E(Tϑlnf(X;ϑ))=t(x)[ϑf(x;ϑ)]dx=ϑ[t(x)f(x;ϑ)dx]=ψ(ϑ)

dal momento che gli operatori di derivazione e integrazione commutano.

Tramite la disuguaglianza di Cauchy-Schwarz si ha inoltre:

 var(T)var(V)cov(V,T)=ψ(ϑ)

dunque:

 var(T)[ψ(ϑ)]2var(V)=[ψ(ϑ)]2(ϑ)=[ϑE(T)]21(ϑ)

come volevasi dimostrare. Ora, se  T è uno stimatore corretto per  ϑ, E(T)=ϑ, e  ψ(ϑ)=1; dunque la relazione sopra diviene:

 var(T)1(ϑ)

ossia la disuguaglianza di Cramér-Rao.

Estensione a più parametri

Al fine di estendere la disuguaglianza di Cramér-Rao al caso di un vettore di parametri, si definisca il vettore colonna:

θ=[ϑ1,ϑ2,,ϑd]d

e sia ad esso associata una funzione di densità f(x;θ) che soddisfi le condizioni di regolarità elemento per elemento.

L'informazione di Fisher  (θ) è allora una matrice di dimensioni  d×d, il cui generico elemento  (m,k) è definito da:

 m,k=E[ϑmlnf(x;θ)ϑklnf(x;θ)]

La disuguaglianza di Cramér-Rao è dunque formulata come:

covθ(𝑻(X))ψ(θ)θT(θ)1ψ(θ)θ

dove:

  • 𝑻(X)=[T1(X)T2(X)Td(X)]
  • ψ=E[𝑻(X)]=[ψ1(θ)ψ2(θ)ψd(θ)]
  • ψ(θ)θ=[ψ1(θ)ψ2(θ)ψd(θ)][ϑ1ϑ2ϑd]=[ψ1(θ)ϑ1ψ1(θ)ϑ2ψ1(θ)ϑdψ2(θ)ϑ1ψ2(θ)ϑ2ψ2(θ)ϑdψd(θ)ϑ1ψd(θ)ϑ2ψd(θ)ϑd]
  • ψ(θ)θ=[ϑ1ϑ2ϑd][ψ1(θ)ψ2(θ)ψd(θ)]=[ψ1(θ)ϑ1ψ2(θ)ϑ1ψd(θ)ϑ1ψ1(θ)ϑ2ψ2(θ)ϑ2ψd(θ)ϑ2ψ1(θ)ϑdψ2(θ)ϑdψd(θ)ϑd]

e  covθ(𝑻(X)) è una matrice semidefinita positiva, ossia tale per cui  xcovθ(𝑻(X))x0  xd, x𝟎.

Se  𝑻(X)=[T1(X)T2(X)Td(X)] è uno stimatore corretto, e dunque  ψ(θ)=θ, la disuguaglianza di Cramér-Rao è:

 covθ(𝑻(X))(θ)1

La disuguaglianza stessa è da intendersi nel senso che la differenza tra il primo e il secondo membro è ancora una matrice semidefinita positiva.

Disuguaglianza di Cramér-Rao ed efficienza

La disuguaglianza di Cramér-Rao è strettamente legata al concetto di efficienza di uno stimatore. In particolare, è possibile definire una misura di efficienza per uno stimatore  T(X) per il parametro (o vettore di parametri)  ϑ, come:

 e(T)=1(ϑ)var(T)

ossia la minima varianza possibile per uno stimatore corretto, basata sulla disuguaglianza di Cramér-Rao, rapportata all'effettiva varianza. In base alla disuguaglianza di Cramér-Rao, ovviamente  e(T)1.

Illustrazione del risultato

Si illustra il significato della disuguaglianza di Cramér-Rao tramite un esempio basato sulla variabile casuale normale multivariata. Sia un vettore aleatorio  𝐱d, tale che:

 𝐱N(μ(θ),Σ(θ)), μ(θ)d, Σ(θ)d×d

dove  N() denota la distribuzione normale; la funzione di densità multivariata associata è:

 f𝐗(𝐱;θ)=1(2π)d|Σ|exp{12(𝐱μ)Σ1(𝐱μ)}

La matrice informazione di Fisher ha generico elemento  (m,k):

 (θ)m,k=μϑmΣ1μμk+12tr(Σ1ΣϑmΣ1Σϑk)

dove  tr() denota l'operatore traccia di una matrice.

Si consideri caso di un vettore aleatorio gaussiano come sopra, di dimensione  n, con media nulla ed elementi indipendenti aventi ciascuno varianza  σ2:

 xN(𝟎,σ2I)

La matrice informazione di Fisher è allora  1×1:

 (σ2)=12tr(Σ1ΣϑmΣ1Σϑk)=12σ2tr(I)=n2σ2

Dunque il limite inferiore di Cramér-Rao per la varianza di uno stimatore  Tσ2 per  σ2 è dato da:

 var(Tσ2)2σ2n

Giova osservare che tale limite è pari alla varianza teorica dello stimatore di massima verosimiglianza per il parametro  σ2 nelle ipotesi presentate.

Note

  1. Wiebe R. Pestman, Mathematical Statistics: An Introduction, Walter de Gruyter, 1998, ISBN 3-11-015357-2, p. 118.

Bibliografia

  • D.C. Boes, F.A. Graybill, A.M. Mood (1988), Introduzione alla Statistica, McGraw-Hill Libri Italia, ISBN 88-386-0661-7, un testo di riferimento per i fondamenti della statistica matematica; la disuguaglianza di Cramér-Rao è trattata nei capitoli sui metodi di ricerca degli stimatori.
  • Alexander Craig Aitken e Harold Silverstone, "On the Estimation of Statistical Parameters", in Proceedings of the Royal Society of Edinburgh, 1942, vol. 61, pp. 186-194, dove gli autori sviluppano idee di Ronald Fisher descrivendo un caso particolare di quella che sarebbe diventate la Disuguaglianza di Cramèr-Rao

Voci correlate

Template:Portale