Indipendenza stocastica

Da testwiki.
Vai alla navigazione Vai alla ricerca

Template:F

Eventi dipendenti ma indipendenti a due a due
Eventi dipendenti ma indipendenti a due a due

Nell'ambito del calcolo delle probabilità, l'indipendenza stocastica di due eventi A e B si ha quando il verificarsi di uno non modifica la probabilità di verificarsi dell'altro, ovvero quando la probabilità condizionata (A|B) oppure (B|A) è pari rispettivamente a (A) e (B)

(A|B)=(A),
(B|A)=(B),

queste due condizioni si possono sintetizzare con la formula

(AB)=(A)(B).

Descrizione

In altre parole, dire che due eventi sono indipendenti tra loro significa dire che il fatto di sapere che uno di essi si è verificato non modifica la valutazione di probabilità sul secondo. Per esempio, il fatto di ottenere "1" quando viene lanciato un dado ed il fatto di ottenere ancora un "1" la seconda volta che il dado viene lanciato, sono indipendenti.

Analogamente, quando si afferma che due variabili casuali X e Y definite sullo stesso spazio campionario H sono indipendenti si afferma che conoscere qualcosa riguardo al valore di una di esse non apporta alcuna informazione circa il valore dell'altra. Per esempio, il numero che appare sulla faccia superiore di un dado la prima volta che viene lanciato e il numero che appare la seconda volta sono indipendenti. Formalmente, questo si verifica quando per ogni coppia di eventi A e B risulta

(XAYB)=(XA)(YB).

Equivalentemente ciò si verifica se, detta F la funzione di ripartizione della variabile congiunta (X,Y) e FX, FY le due funzioni di ripartizione marginali, allora per ogni x, y vale che

F(x,y)=FX(x)FY(y).

Condizioni analoghe si trovano per la funzione di densità di probabilità e la funzione di probabilità, se X è rispettivamente una variabile casuale continua o una variabile casuale discreta:

f(x,y)=fX(x)fY(y),

e

p(x,y)=pX(x)pY(y).

Generalizzazioni

Template:S sezione Nell'ambito della teoria della probabilità, la nozione di indipendenza stocastica può essere generalizzata ampiamente. Sia (Ω,𝔉,) uno spazio di probabilità, e sia {𝔉α}α𝒜 una famiglia arbitraria (finita o non finita) di σ-algebre contenute in 𝔉: 𝔉α𝔉. Esse si dicono indipendenti rispetto a se, per ogni sottoinsieme finito ={α1,,αn} di 𝒜, e per ogni sottoinsieme Aα𝔉α, accade:

(αAα)=α(Aα).

Questa nozione si riduce alla precedente nel caso in cui la famiglia di σ-algebre sia formata da due soli elementi 𝔉A e 𝔉B, dove, dato un insieme misurabile E, 𝔉E è la σ-algebra da esso generata: 𝔉E={,E,Ec,Ω}.

Questa estensione, ampiamente usata nella teoria dei processi stocastici, trova la sua motivazione nel fatto che l'indipendenza stocastica di una famiglia di σ-algebre, non è in generale equivalente all'indipendenza dei suoi elementi a due a due. Ad esempio, dati tre insiemi A,B,C, sapendo che A e B, A e C, B e C sono indipendenti, non se ne può dedurre che:

(ABC)=(A)(B)(C).

Voci correlate

Altri progetti

Template:Interprogetto

Collegamenti esterni

Template:Probabilità Template:Portale