Test F

Da testwiki.
Vai alla navigazione Vai alla ricerca

In statistica il test F per il confronto di due varianze è un test di ipotesi basato sulla distribuzione F di Fisher-Snedecor e volto a verificare l'ipotesi che due popolazioni che seguono entrambe distribuzioni normali abbiano la stessa varianza.

Procedimento

Se le popolazioni X e Y seguono rispettivamente le distribuzioni normali 𝒩(μX,σX2) e 𝒩(μY,σY2), allora

  • i campioni X1,X2,,Xn e Y1,Y2,,Ym si suppongono indipendenti, i primi isonomi a X e i secondi isonomi a Y;
  • le variabili aleatorie n1σX2SX2 e m1σY2SY2 seguono rispettivamente le distribuzioni chi quadro χ2(n1) e χ2(m1);
  • il rapporto F=σY2σX2SX2SY2 segue la distribuzione di Fisher-Snedecor (n1,m1).

Variabile di decisione

Sotto l'ipotesi H0=(σX2=σY2), ovvero se le due popolazioni hanno la stessa varianza, allora la variabile aleatoria

F=SX2SY2

segue la distribuzione di Fisher-Snedecor

(n1,m1)

di parametri n-1 e m-1, dove n e m sono le numerosità dei due campioni.

La scelta del numeratore non influenza il test: sotto l'ipotesi nulla la variabile aleatoria 1/F segue la distribuzione (m1,n1).

Il test

Come regione di accettazione, al livello di significatività α, viene preso l'intervallo compreso tra i quantili di ordine α2 e 1α2, mentre la regione di rifiuto è quella esclusa:

𝒜=]fα2,f1α2[;=]0,fα2[  ]f1α2,[

Un valore appartenente all'intervallo ]0,fα2[ suggerisce che la varianza di X sia minore della varianza di Y, mentre un valore appartenente all'intervallo ]f1α2,[ suggerisce l'inverso.

Econometria

In molti casi la statistica F può essere calcolata con un processo più diretto:

F=(SSR1SSR2p2p1)(SSR2np2)[1]

dove SSRi è la somma dei quadrati residui (dall'inglese Sum of Square Residuals) del modello i.

In econometria vale anche la seguente formula di moltiplicazioni tra matrici:

F=(Rβ^r)(RVar(β^)R^)1(Rβ^r)q

dove:

  • R è la matrice dei vincoli;
  • r è il parametro d'eguagliaza;
  • (RVar(β^)R^)1 è l'inversa della matrice con le covarianze;
  • q è il numero dei vincoli di H0.

Solitamente gli strumenti sono rilevanti se F ≥ 10

Una tavola dei valori critici del test F può essere trovata qui.

Applicazione alla comparazione di diverse statistiche χ2

In analisi dei dati il test F viene comunemente usato per confrontare i risultati ottenuti con due diversi metodi e valutati con l'estimatore χ2.[2] Se si hanno due variabili χ12 e χ22 che seguono la distribuzione di χ2 a ν1 e ν2 gradi di libertà rispettivamente, si può costruire la variabile f:

f=χ12/ν1χ22/ν2

che sarà distribuita secondo la Distribuzione F:

p(f;ν1,ν2)=Γ[(ν1+ν2)/2]Γ[ν1/2]Γ[ν2/2](ν1ν2)ν1/2f1/2(ν12)(1+fν1/ν2)1/2(ν1+ν2).

Per capire se χ12 e χ22 siano consistenti si usa, quindi, l'integrale della distribuzione di probabilità per f:

Pf(f0;ν1,ν2)=f0p(f,ν1,ν2)df

dove f0 è il particolare valore di f ottenuto.

Il valore di Pf fornisce la probabilità di trovare un valore di f pari a f0 o più alto da dati casuali se χ12 e χ22 sono in accordo.

Tipicamente il test F usato per i χ2 confronta due fit applicati agli stessi dati per capire se uno è migliore dell'altro. Se il valore di Pf è minore del livello di confidenza scelto (ad es. 5%), si ha una significativa differenza nella bontà dei due fit.

Note

  1. Template:Cita web
  2. Bevington, P.R. Robinson, D. K. - Data reduction and error analysis for physical sciences , Mc Graw Hill

Collegamenti esterni

Template:Portale