Metodo di Laplace

Da testwiki.
Vai alla navigazione Vai alla ricerca

Nell'analisi matematica, il metodo di Laplace, il cui nome deriva da Pierre-Simon Laplace, è una tecnica usata per approssimare integrali nella forma

abeMf(x)dx,

dove f(x) è una qualunque funzione derivabile due volte, M è un numero "grande" e gli estremi d'integrazione a e b possono essere anche infiniti. Questa tecnica fu per la prima volta presentata nell'articolo "Mémoir sur la probabilité des causes par évènemens" di Laplace del 1774.

L'idea del metodo di Laplace

La funzione eMf(x) (in blu) con f(x)=sin(x)/x è mostrata nella figura superiore per M=0.5 e in quella inferiore con M=3. La funzione f(x) ha un massimo globale per x0=0. Si può notare che al crescere del valore di M, l'approssimazione di questa funzione con una gaussiana (in rosso) migliora sempre di più. Questa osservazione sottolinea il metodo di Laplace.

Si assuma che la funzione f(x) abbia un unico massimo globale in x0. Allora, il valore f(x0) sarà più grande degli altri valori di f(x). Se si moltiplica questa funzione per un numero grande M, il rapporto fra Mf(x0) e Mf(x) rimane lo stesso (poiché Mf(x0)/Mf(x)=f(x0)/f(x)), ma crescerà esponenzialmente nella funzione eMf(x) (vedere figura). Perciò solo punti x in un intorno di x0 daranno significativi contributi all'integrale della funzione, che può essere stimato.

Per descrivere e motivare il metodo, sono necessarie alcune ipotesi. Si assuma che x0 non sia un estremo di integrazione, che il valore di f(x) non possa essere molto vicino a f(x0) a meno che x sia vicino a x0 e che la derivata seconda f(x0)<0.

Si può sviluppare f(x) intorno a x0 usando il teorema di Taylor e ottenendo

f(x)=f(x0)+f(x0)(xx0)+12f(x0)(xx0)2+R,

dove R=O((xx0)3).

Poiché f ha un massimo globale in x0, e siccome x0 non è un estremo, esso è un punto stazionario, perciò la derivata di f in x0 si annulla. Dunque, la funzione può essere approssimata al secondo ordine come

f(x)f(x0)12|f(x0)|(xx0)2,

per x vicino a x0 (si ricordi che la derivata seconda nel punto di massimo x0 è negativa). Le ipotesi assicurano la precisione dell'approssimazione

abeMf(x)dxeMf(x0)abeM|f(x0)|(xx0)2/2dx

(vedere la figura sulla destra). Quest'ultimo integrale sarebbe un integrale di Gauss se i limiti di integrazione andassero da a + (che può essere assunto dato che l'esponenziale decade molto velocemente lontano da x0), e pertanto può essere calcolato. Si trova così che

abeMf(x)dx2πM|f(x0)|eMf(x0),con M+.

Enunciato

Si assuma che f(x) sia una funzione di classe C2 su [a,b] con x0(a,b) l'unico punto tale che f(x0)=max[a,b]f(x). Si assuma inoltre che f(x0)<0.

Allora

limn+abenf(x)dxenf(x0)2πn(f(x0))=1.

Dimostrazione

Minorante:

Sia ε>0. Per la continuità di f esiste δ>0 tale che se |x0c|<δ allora f(c)f(x0)ε. Dal teorema di Taylor, per ogni x(x0δ,x0+δ), f(x)f(x0)+12(f(x0)ε)(xx0)2.

Quindi si ha il seguente minorante:

abenf(x)dxx0δx0+δenf(x)dxenf(x0)x0δx0+δen2(f(x0)ε)(xx0)2dx=enf(x0)1n(f(x0)+ε)δn(f(x0)+ε)δn(f(x0)+ε)e12y2dy,

dove l'ultima uguaglianza è stata ottenuta dal cambio di variabili y=n(f(x0)+ε)(xx0). Si ricordi che f(x0)<0 e quindi è possibile estrarne la radice quadrata.

Se si dividono entrambi i membri della precedente disuguaglianza per enf(x0)2πn(f(x0)) e se ne prende il limite si ottiene:

limn+abenf(x)dxenf(x0)2πn(f(x0))limn+12πδn(f(x0)+ε)δn(f(x0)+ε)e12y2dyf(x0)f(x0)+ε=f(x0)f(x0)+ε.

Poiché è vero per un arbitrario ε, si trova il minorante:

limn+abenf(x)dxenf(x0)2πn(f(x0))1.

Da notare che la dimostrazione funziona anche quando a= oppure b=+ (o entrambi).

Maggiorante: La dimostrazione del maggiorante è simile a quella del minorante ma ci sono alcuni inconvenienti. Di nuovo si inizia prendendo un ε>0 ma allo scopo di far funzionare la dimostrazione serve che ε sia piccolo abbastanza affinché f(x0)+ε<0. Quindi, come sopra, dalla continuità di f e il teorema di Taylor si trova δ>0 tale che se |xx0|<δ, allora f(x)f(x0)+12(f(x0)+ε)(xx0)2. Infine per ipotesi (assumendo a,b finiti) esiste un η>0 tale che se |xx0|δ, allora f(x)f(x0)η.

Si può ora calcolare il seguente maggiorante:

abenf(x)dxax0δenf(x)dx+x0δx0+δenf(x)dx+x0+δbenf(x)dx(ba)en(f(x0)η)+x0δx0+δenf(x)dx(ba)en(f(x0)η)+enf(x0)x0δx0+δen2(f(x0)+ε)(xx0)2dx(ba)en(f(x0)η)+enf(x0)+en2(f(x0)+ε)(xx0)2dx(ba)en(f(x0)η)+enf(x0)2πn(f(x0)ε).

Se si dividono entrambi i membri della disuguaglianza per enf(x0)2πn(f(x0)) e se ne prende il limite si ottiene:

limn+abenf(x)dxenf(x0)2πn(f(x0))limn+(ba)eηnn(f(x0))2π+f(x0)f(x0)ε=f(x0)f(x0)ε.

Poiché ε è arbitrario si ha il maggiorante:

limn+abenf(x)dxenf(x0)2πn(f(x0))1.

E combinandolo con il risultato ricavato prima si dimostra l'enunciato.

Da notare che la dimostrazione precedente fallisce quando a= oppure b=+ (o entrambi). Per trattare questi casi, c'è bisogno di ulteriori ipotesi. Un'assunzione sufficiente (e non necessaria) è che per n=1, l'integrale abenf(x)dx sia finito, e che il numero η come sopra esista (si osservi che questa deve essere un'ipotesi solo nel caso di a o b infinito). La dimostrazione procede altrimenti come prima, ma gli integrali

ax0δenf(x)dx+x0+δbenf(x)dx

devono essere stimati superiormente da

ax0δenf(x)dx+x0+δbenf(x)dxabef(x)e(n1)(f(x0)η)dx=e(n1)(f(x0)η)abef(x)dx

invece di (ba)en(f(x0)η) come per il minorante, così che quando si divide per enf(x0)2πn(f(x0)), si ottiene per questo termine

e(n1)(f(x0)η)abef(x)dxenf(x0)2πn(f(x0))=e(n1)ηnef(x0)abef(x)dxf(x0)2π

il cui limite per n+ è 0. Il resto della dimostrazione (l'analisi dei termini dominanti) procede come sopra.

La condizione data nel caso di intervallo infinito è, come detto precedentemente, sufficiente ma non necessaria. Tuttavia, la condizione è soddisfatta nella maggior parte delle applicazioni: la condizione semplicemente afferma che l'integrale che si sta studiando sia ben definito (non infinito) e che il massimo della funzione in x0 sia un "vero" massimo (il numero η>0 deve esistere). Non c'è inoltre bisogno di richiedere che l'integrale sia finito per n=1 ma è sufficiente che lo sia per un qualche n=N.

Applicazione: approssimazione di Stirling

Il metodo di Laplace può essere utilizzato per derivare l'approssimazione di Stirling

N!2πNNNeN,

per un intero N grande.

Dalla definizione della funzione Gamma, si ha

N!=Γ(N+1)=0exxNdx.

Ora effettuando il cambio di variabile

x=Nz

si ottiene

N!=0eNz(Nz)NNdz=NN+10eNzzNdz=NN+10eNzeNlnzdz=NN+10eN(lnzz)dz.

Questo integrale ha la forma necessaria per il metodo di Laplace con

f(z)=lnzz

che è derivabile con continuità due volte:

f(z)=1z1,
f(z)=1z2.

Il massimo di f(x) si trova z0=1, e la derivata seconda in quel punto ha valore 1. Pertanto, si ricava

N!NN+12πNeN=2πNNNeN.

Generalizzazioni

L'approssimazione di Laplace può essere generalizzata agli integrali nella forma

abh(x)eMg(x)dx2πM|g(x0)|h(x0)eMg(x0),con M+,

dove h è positiva. È importante sottolineare che la precisione dell'approssimazione dipende dalla variabile di integrazione.[1]

Nel caso a più variabili, dove 𝐱 è un vettore n-dimensionale e f(𝐱) è una funzione scalare di 𝐱, l'approssimazione di Laplace diventa:

eMf(𝐱)d𝐱(2πM)n/2|H(f)(𝐱0)|1/2eMf(𝐱0),con M+,

con H(f)(𝐱0) la matrice hessiana di f calcolata in 𝐱0 e dove || indica il determinante. Analogamente al caso di una variabile, la matrice hessiana deve essere definita negativa.[2]

Precisione del metodo

Prima di tutto, si ponga senza perdita di generalità che il massimo globale si trovi in x0=0. Perciò, quello che si vuole è l'errore relativo |R| come mostrato sotto

abh(x)eMg(x)dx=h(0)eMg(0)sa/sb/sh(x)h(0)eM[g(sy)g(0)]dy1+R,

dove s2πM|g(0)|. Quindi, posto Ah(sy)h(0)eM[g(sy)g(0)] e A0eπy2, si ottiene

|R|=|a/sb/sAdyA0dy|

poiché A0dy=1. Ora si deve trovare un maggiorante.

Grazie a |A+B||A|+|B|, si può separare l'integrazione in 5 parti di 3 differenti tipi: (a), (b) e (c), rispettivamente. Pertanto,

|R|<|DyA0dy|(a1)+|Dyb/sAdy|(b1)+|DyDy(AA0)dy|(c)+|a/sDyAdy|(b2)+|DyA0dy|(a2),

dove (a1) e (a2) sono simili, quindi si calcolerà solo (a1), e analogamente per (b1) e (b2).

Per (a1), dopo aver rinominato zπy2, si ha

(a1)=|12ππDy2ezz1/2dz|<eπDy22πDy.

Questo significa che fintanto che Dy è abbastanza grande, esso tenderà a zero.

Per (b1), si ricava

(b1)|Dyb/s[h(sy)h(0)]maxeMm(sy)dy|,

dove

m(x)g(x)g(0),con x[sDy,b]

e h(x) dovrebbe avere lo stesso segno di h(0) nella regione. Si scelga m(x) come la tangente in x=sDy, cioè m(sy)=g(sDy)g(0)+g(sDy)(sysDy) (che è mostrata in figura).

m(x) è la tangente in x=sDy.

Dalla figura si può osservare che quando s o Dy diventa piccolo, la regione che soddisfa la precedente disuguaglianza diventa sempre più grande. Dunque, se si vuole trovare una m(x) adatta a coprire l'intera f(x) nell'intervallo di (b1), Dy deve avere un estremo superiore. Inoltre, siccome l'integrale eαx è semplice, si userà per stimare l'errore relativo dovuto a (b1).

Usando lo sviluppo di Taylor, si ottiene

M[g(sDy)g(0)]=M[g(0)2s2Dy2+g(ξ)6s3Dy3]conξ[0,sDy]=πDy2+(2π)3/2g(ξ)Dy36M|g(0)|3/2,

e

Msg(sDy)=Ms(g(0)sDy+g(ζ)2s2Dy2),con ζ[0,sDy]=2πDy+2M(π|g(0)|)3/2g(ζ)Dy2,

e si sostituisce nel calcolo di (b1). Tuttavia, si trova che i resti dei due sviluppi sono entrambi inversamente proporzionali alla radice di M, perciò si tralasceranno per rendere più elegante il calcolo.

(b1)|[h(sy)h(0)]maxeπDy20b/sDye2πDyydy||[h(sy)h(0)]maxeπDy212πDy|.

In aggiunta, tenderà a zero quando Dy diventa arbitrariamente grande, ma non si dimentichi che il limite superiore di Dy deve essere considerato nel calcolo.

A proposito dell'integrazione vicino a x=0, si può usare anche il teorema di Taylor per calcolarlo. Quando h(0)0

(c)DyDyeπy2|sh(ξ)h(0)y|dy<2πM|g(0)||h(ξ)h(0)|max(1eπDy2)

e si trova che è inversamente proporzionale a M. Infatti, (c) avrà lo stesso comportamento quando h(x) è costante.

Infine, l'integrazione vicino al punto stazionario diventa piccola quando M diventa grande, e le parti rimanenti tenderanno a zero fintanto che Dy è abbastanza grande, ma quest'ultimo ha un estremo superiore dovuto alla condizione che la funzione m(x) è sempre maggiore di g(x)g(0) nella regione rimanente. Tuttavia, fino a che si trova un m(x) che soddisfa la condizione, l'estremo superiore di Dy può essere scelto direttamente proporzionale a M poiché m(x) è la tangente di g(x)g(0) in x=sDy. Quindi, più grande è M, più può essere grande Dy.

Estensione del metodo di Laplace: la discesa del gradiente

Template:Vedi anche

Un'estensione del metodo di Laplace all'analisi complessa, insieme alla formula integrale di Cauchy, è usata per trovare un contorno di "discesa più ripida" per un (asintoticamente per grandi M) integrale equivalente, espresso come un integrale di linea. In particolare, se non esistono punti sulla retta reale in cui la derivata di f si annulla, può essere necessario deformare in contorno di integrazione in uno ottimale, dove l'analisi discussa prima è possibile. Ancora l'idea principale è di ridurre, almeno in modo asintotico, il calcolo del dato integrale a uno più semplice e che quindi può essere valutato esplicitamente. Si veda il libro di Erdelyi (1956) per una semplice discussione (dove il metodo è chiamato "discesa del gradiente")

L'appropriata formulazione per il piano complesso è

abeMf(z)dz2πMf(z0)eMf(z0),con M+.

per un percorso passante attraverso il punto di sella in z0. Da notare l'esplicita presenza di un segno meno ad indicare la direzione della derivata seconda: non se ne può prendere il modulo. Inoltre se la funzione integranda è meromorfa, si può dover aggiungere i residui corrispondenti ai poli attraversati durante la deformazione del contorno (vedere per esempio la sezione 3 dell'artico di Okounkov "Symmetric functions and random partitions").

Note

Bibliografia

Voci correlate

Template:Portale