Minimi quadrati generalizzati

Da testwiki.
Versione del 23 dic 2023 alle 16:25 di 195.32.108.248 (discussione) (Limiti del modello classico di regressione lineare: la matrice deve essere simmetrica)
(diff) ← Versione meno recente | Versione attuale (diff) | Versione più recente → (diff)
Vai alla navigazione Vai alla ricerca

Il metodo dei minimi quadrati generalizzati di Aitken consente la stima di un modello lineare, sotto ipotesi più generali di quelle del modello classico di regressione lineare multivariata.

Perché ipotesi più generali?

Sulla base del criterio del rasoio di Occam, formulare ipotesi più generali pone un costo in termini di trattabilità di un modello perciò generalmente si preferisce non sacrificare la semplicità e l'eleganza del modello classico di regressione lineare, ponendo ipotesi più generali. In altri casi come nei seguenti esempi esistono fondati motivi che rendono necessario formulare ipotesi meno restrittive.

  • Sull'assenza/presenza di correlazione nei disturbi: nell'ambito dell'analisi di serie storiche di dati è lecito attendersi che sussista una qualche relazione tra osservazioni effettuate in istanti successivi; per esempio: l'evoluzione della natalità in una data area geografica, l'andamento nel tempo di un segnale elettrico o dei rendimenti di un titolo azionario;
  • Sulla omoschedasticità/eteroschedasticità dei disturbi: laddove si campionino unità statistiche intrinsecamente eterogenee è lecito attendersi che la varianza del disturbo possa variare da osservazione a osservazione; per esempio: l'analisi dei consumi di un campione di famiglie o della produzione di un campione di imprese, lo studio dell'incidenza di una malattia geneticamente trasmissibile in un campione di regioni.

Limiti del modello classico di regressione lineare

Il modello classico di regressione lineare impone ipotesi relativamente restrittive sulla struttura della matrice varianze-covarianze dei disturbi  ε del modello:

 y=Xβ+ε

In particolare, si assume che i disturbi abbiano valore atteso nullo:  E[ε]=0, nonché si ipotizzano:

  • Assenza di correlazione:  E[εiεj]=0 ji;
  • Omoschedasticità:  E[εi2]=σ2 i;

queste ipotesi possono essere scritte sinteticamente, in notazione matriciale, come:

 E[εε]=σ2I

dove  I denota una matrice identità di opportuno ordine. Si consideri una struttura più generale, del tipo:

 E[εε]=σ2Ω

dove  Ω è una matrice definita positiva simmetrica qualsiasi. Ciò significa ammettere la possibilità di correlazione dei disturbi ed eteroschedasticità. Si consideri quindi lo stimatore dei minimi quadrati ordinari (OLS, dall'inglese Ordinary Least Squares) derivato nel contesto del modello classico di regressione lineare:

 β^OLS=(XX)1Xy

Si vogliono valutare le proprietà statistiche di  β^OLS sotto le ipotesi più generali testé esposte. Lo stimatore gode ancora della proprietà di correttezza:

 E[β^OLS]=E[β+(XX)1Xε]=β

Quanto alla matrice varianze-covarianze di  β^OLS, si ha:

 Σ=E[(β^OLSβ)(β^OLSβ)]=(XX)1XE(εε)X(XX)1=
 =σ2(XX)1XΩX(XX)1

Si ricorda che la matrice varianze-covarianze di  β^OLS, sotto le ipotesi del modello classico di regressione lineare, è data da  ΣOLS=σ2(XX)1. In generale, non è possibile stabilire se  Σ sia maggiore o minore di  ΣOLS (ad esempio, nel senso del teorema di Gauss-Markov), in quanto ciò dipende da  Ω, che in generale non è nota. È tuttavia lecito aspettarsi che lo stimatore  β^OLS non sia, in questo caso, ottimale nel senso stabilito dal teorema di Gauss-Markov sotto le ipotesi del modello classico.

Stimatore dei minimi quadrati generalizzati

Sotto le ipotesi generali sopra enunciate è possibile dimostrare che lo stimatore ottimale è lo stimatore dei minimi quadrati generalizzati (o GLS, dall'inglese Generalised Least Squares) di Aitken:

 β^GLS=(XΩ1X)1XΩ1y

Euristicamente si può affermare che, per effetto dei termini  Ω1 nell'espressione sopra, lo stimatore assegna un peso maggiore alle osservazioni caratterizzate da una minore varianza che sono dunque da considerarsi più "affidabili".

Derivazione dello stimatore GLS

Lo stimatore  β^GLS può essere interpretato come uno stimatore OLS basato su variabili trasformate. Si ipotizzi infatti che esista una matrice  L non singolare tale che:

 Ω1=LL

così che  Ω=L1(L)1. Moltiplicando ambo i membri di  y=Xβ+ε per  L si ha il modello nelle variabili trasformate:

 y~=Ly=X~β+ε~=L(Xβ+ε)

Si osserva immediatamente che:

 E[ε~]=0
 E[ε~ε~]=σ2LΩL=σ2LL1(L)1L=σ2I

Il modello nelle variabili trasformate verifica dunque le ipotesi del modello lineare classico. Si fa dunque ricorso allo stimatore OLS:

 β^=(X~X~)1X~y~=(XLLX)1XLLy=(XΩ1X)1XΩ1y

Quest'ultima espressione altro non è che lo stimatore GLS o dei minimi quadrati generalizzati.

Proprietà dello stimatore GLS

Lo stimatore  β^GLS gode, così come  β^OLS, della proprietà di correttezza:

 E[β^GLS]=E[β+(XΩ1X)1XΩ1ε]=β

La sua matrice varianze-covarianze è inoltre data da:

 E[(β^GLSβ)(β^GLSβ)]=(XΩ1X)1XΩ1E(εε)Ω1X(XΩ1X)1=
 =σ2(XΩ1X)1

Il teorema di Aitken stabilisce che lo stimatore  β^GLS è, nella classe degli stimatori lineari per il modello di regressione generalizzato sulla base delle ipotesi sopra, quello caratterizzato dalla minima varianza in questo senso lo stimatore GLS è uno stimatore efficiente.

Utilizzo dello stimatore GLS

Nelle applicazioni in generale la matrice varianze-covarianze  Ω non è nota, per cui lo stimatore GLS non è direttamente utilizzabile, almeno nella forma in cui è presentato sopra.

La conoscenza del particolare fenomeno oggetto di studio può tuttavia suggerire al ricercatore indizi circa la struttura di  Ω. Per esempio il ricercatore potrà aspettarsi soltanto eteroschedasticità o correlazione nei disturbi, o entrambe. Questa conoscenza del fenomeno, eventualmente unita a un'analisi delle cause dei disturbi, consente di individuare un opportuno stimatore della matrice varianze-covarianze,  Ω^. In genere si ricerca uno stimatore che goda della proprietà di consistenza, ossia tale per cui:

 plimN Ω^=Ω

dove  N indica il numero di osservazioni e  plim denota la convergenza in probabilità, e

 limNvar(Ω^)=0

In tal caso, lo stimatore dei minimi quadrati generalizzati è detto, con voce inglese, stimatore dei Feasible Generalised Least Squares, ed è dato da:

 β^FGLS=(XΩ^1X)1XΩ^1y

Le proprietà di  β^FGLS sono analoghe a quelle di  β^OLS e  β^GLS, tuttavia hanno natura asintotica.

Bibliografia

  • Aitken, A.C. (1935), On Least Squares and Linear Combinations of Observations, Proceedings of the Royal Statistical Society 55, 42-48; il contributo originale di Aitken;
  • Davidson, J. (2000), Econometric Theory, Blackwell, ISBN 0-631-21584-0, un testo specializzato in econometria, di livello master/dottorato; esamina rigorosamente gli aspetti algebrici del metodo di Aitken (in inglese);
  • Greene, W.H. (2000), Econometric Analysis, Prentice-Hall, ISBN 0-13-013297-7, ancora un testo di econometria, propone il metodo dei minimi quadrati generalizzati nel contesto di un'analisi del modello di regressione lineare di più ampio respiro (in inglese).

Voci correlate

Template:Portale