Metodo di Laplace

Nell'analisi matematica, il metodo di Laplace, il cui nome deriva da Pierre-Simon Laplace, è una tecnica usata per approssimare integrali nella forma

a b e M f ( x ) d x , {\displaystyle \int _{a}^{b}\!e^{Mf(x)}\,dx,}

dove f ( x ) {\displaystyle f(x)} è una qualunque funzione derivabile due volte, M {\displaystyle M} è un numero "grande" e gli estremi d'integrazione a {\displaystyle a} e b {\displaystyle b} possono essere anche infiniti. Questa tecnica fu per la prima volta presentata nell'articolo "Mémoir sur la probabilité des causes par évènemens" di Laplace del 1774.

L'idea del metodo di Laplace

La funzione e M f ( x ) {\displaystyle e^{Mf(x)}} (in blu) con f ( x ) = s i n ( x ) / x {\displaystyle f(x)=sin(x)/x} è mostrata nella figura superiore per M = 0.5 {\displaystyle M=0.5} e in quella inferiore con M = 3 {\displaystyle M=3} . La funzione f ( x ) {\displaystyle f(x)} ha un massimo globale per x 0 = 0 {\displaystyle x_{0}=0} . Si può notare che al crescere del valore di M {\displaystyle M} , l'approssimazione di questa funzione con una gaussiana (in rosso) migliora sempre di più. Questa osservazione sottolinea il metodo di Laplace.

Si assuma che la funzione f ( x ) {\displaystyle f(x)} abbia un unico massimo globale in x 0 {\displaystyle x_{0}} . Allora, il valore f ( x 0 ) {\displaystyle f(x_{0})} sarà più grande degli altri valori di f ( x ) {\displaystyle f(x)} . Se si moltiplica questa funzione per un numero grande M {\displaystyle M} , il rapporto fra M f ( x 0 ) {\displaystyle Mf(x_{0})} e M f ( x ) {\displaystyle Mf(x)} rimane lo stesso (poiché M f ( x 0 ) / M f ( x ) = f ( x 0 ) / f ( x ) ) {\displaystyle Mf(x_{0})/Mf(x)=f(x_{0})/f(x))} , ma crescerà esponenzialmente nella funzione e M f ( x ) {\displaystyle e^{Mf(x)}} (vedere figura). Perciò solo punti x {\displaystyle x} in un intorno di x 0 {\displaystyle x_{0}} daranno significativi contributi all'integrale della funzione, che può essere stimato.

Per descrivere e motivare il metodo, sono necessarie alcune ipotesi. Si assuma che x 0 {\displaystyle x_{0}} non sia un estremo di integrazione, che il valore di f ( x ) {\displaystyle f(x)} non possa essere molto vicino a f ( x 0 ) {\displaystyle f(x_{0})} a meno che x {\displaystyle x} sia vicino a x 0 {\displaystyle x_{0}} e che la derivata seconda f ( x 0 ) < 0 {\displaystyle f''(x_{0})<0} .

Si può sviluppare f ( x ) {\displaystyle f(x)} intorno a x 0 {\displaystyle x_{0}} usando il teorema di Taylor e ottenendo

f ( x ) = f ( x 0 ) + f ( x 0 ) ( x x 0 ) + 1 2 f ( x 0 ) ( x x 0 ) 2 + R , {\displaystyle f(x)=f(x_{0})+f'(x_{0})(x-x_{0})+{\frac {1}{2}}f''(x_{0})(x-x_{0})^{2}+R,}

dove R = O ( ( x x 0 ) 3 ) . {\displaystyle R=O\left((x-x_{0})^{3}\right).}

Poiché f {\displaystyle f} ha un massimo globale in x 0 {\displaystyle x_{0}} , e siccome x 0 {\displaystyle x_{0}} non è un estremo, esso è un punto stazionario, perciò la derivata di f {\displaystyle f} in x 0 {\displaystyle x_{0}} si annulla. Dunque, la funzione può essere approssimata al secondo ordine come

f ( x ) f ( x 0 ) 1 2 | f ( x 0 ) | ( x x 0 ) 2 , {\displaystyle f(x)\approx f(x_{0})-{\frac {1}{2}}|f''(x_{0})|(x-x_{0})^{2},}

per x {\displaystyle x} vicino a x 0 {\displaystyle x_{0}} (si ricordi che la derivata seconda nel punto di massimo x 0 {\displaystyle x_{0}} è negativa). Le ipotesi assicurano la precisione dell'approssimazione

a b e M f ( x ) d x e M f ( x 0 ) a b e M | f ( x 0 ) | ( x x 0 ) 2 / 2 d x {\displaystyle \int _{a}^{b}\!e^{Mf(x)}\,dx\approx e^{Mf(x_{0})}\int _{a}^{b}e^{-M|f''(x_{0})|(x-x_{0})^{2}/2}\,dx}

(vedere la figura sulla destra). Quest'ultimo integrale sarebbe un integrale di Gauss se i limiti di integrazione andassero da {\displaystyle -\infty } a + {\displaystyle +\infty } (che può essere assunto dato che l'esponenziale decade molto velocemente lontano da x 0 {\displaystyle x_{0}} ), e pertanto può essere calcolato. Si trova così che

a b e M f ( x ) d x 2 π M | f ( x 0 ) | e M f ( x 0 ) , con  M + . {\displaystyle \int _{a}^{b}\!e^{Mf(x)}\,dx\approx {\sqrt {\frac {2\pi }{M|f''(x_{0})|}}}e^{Mf(x_{0})},\qquad {\text{con }}M\to +\infty .}

Enunciato

Si assuma che f ( x ) {\displaystyle f(x)} sia una funzione di classe C 2 {\displaystyle C^{2}} su [ a , b ] {\displaystyle [a,b]} con x 0 ( a , b ) {\displaystyle x_{0}\in (a,b)} l'unico punto tale che f ( x 0 ) = max [ a , b ] f ( x ) {\displaystyle f(x_{0})=\max _{[a,b]}f(x)} . Si assuma inoltre che f ( x 0 ) < 0 {\displaystyle f''(x_{0})<0} .

Allora

lim n + a b e n f ( x ) d x e n f ( x 0 ) 2 π n ( f ( x 0 ) ) = 1. {\displaystyle \lim _{n\to +\infty }{\frac {\int _{a}^{b}e^{nf(x)}\,dx}{e^{nf(x_{0})}{\sqrt {\frac {2\pi }{n(-f''(x_{0}))}}}}}=1.}

Dimostrazione

Minorante:

Sia ε > 0 {\displaystyle \varepsilon >0} . Per la continuità di f {\displaystyle f''} esiste δ > 0 {\displaystyle \delta >0} tale che se | x 0 c | < δ {\displaystyle |x_{0}-c|<\delta } allora f ( c ) f ( x 0 ) ε {\displaystyle f''(c)\geq f''(x_{0})-\varepsilon } . Dal teorema di Taylor, per ogni x ( x 0 δ , x 0 + δ ) {\displaystyle x\in (x_{0}-\delta ,x_{0}+\delta )} , f ( x ) f ( x 0 ) + 1 2 ( f ( x 0 ) ε ) ( x x 0 ) 2 {\displaystyle f(x)\geq f(x_{0})+{\frac {1}{2}}(f''(x_{0})-\varepsilon )(x-x_{0})^{2}} .

Quindi si ha il seguente minorante:

a b e n f ( x ) d x x 0 δ x 0 + δ e n f ( x ) d x e n f ( x 0 ) x 0 δ x 0 + δ e n 2 ( f ( x 0 ) ε ) ( x x 0 ) 2 d x = e n f ( x 0 ) 1 n ( f ( x 0 ) + ε ) δ n ( f ( x 0 ) + ε ) δ n ( f ( x 0 ) + ε ) e 1 2 y 2 d y , {\displaystyle \int _{a}^{b}e^{nf(x)}\,dx\geq \int _{x_{0}-\delta }^{x_{0}+\delta }e^{nf(x)}\,dx\geq e^{nf(x_{0})}\int _{x_{0}-\delta }^{x_{0}+\delta }e^{{\frac {n}{2}}(f''(x_{0})-\varepsilon )(x-x_{0})^{2}}\,dx=e^{nf(x_{0})}{\sqrt {\frac {1}{n(-f''(x_{0})+\varepsilon )}}}\cdot \int _{-\delta {\sqrt {n(-f''(x_{0})+\varepsilon )}}}^{\delta {\sqrt {n(-f''(x_{0})+\varepsilon )}}}e^{-{\frac {1}{2}}y^{2}}\,dy,}

dove l'ultima uguaglianza è stata ottenuta dal cambio di variabili y = n ( f ( x 0 ) + ε ) ( x x 0 ) {\displaystyle y={\sqrt {n(-f''(x_{0})+\varepsilon )}}(x-x_{0})} . Si ricordi che f ( x 0 ) < 0 {\displaystyle f''(x_{0})<0} e quindi è possibile estrarne la radice quadrata.

Se si dividono entrambi i membri della precedente disuguaglianza per e n f ( x 0 ) 2 π n ( f ( x 0 ) ) {\displaystyle e^{nf(x_{0})}{\sqrt {\frac {2\pi }{n(-f''(x_{0}))}}}} e se ne prende il limite si ottiene:

lim n + a b e n f ( x ) d x e n f ( x 0 ) 2 π n ( f ( x 0 ) ) lim n + 1 2 π δ n ( f ( x 0 ) + ε ) δ n ( f ( x 0 ) + ε ) e 1 2 y 2 d y f ( x 0 ) f ( x 0 ) + ε = f ( x 0 ) f ( x 0 ) + ε . {\displaystyle \lim _{n\to +\infty }{\frac {\int _{a}^{b}e^{nf(x)}\,dx}{e^{nf(x_{0})}{\sqrt {\frac {2\pi }{n(-f''(x_{0}))}}}}}\geq \lim _{n\to +\infty }{\frac {1}{\sqrt {2\pi }}}\int _{-\delta {\sqrt {n(-f''(x_{0})+\varepsilon )}}}^{\delta {\sqrt {n(-f''(x_{0})+\varepsilon )}}}e^{-{\frac {1}{2}}y^{2}}\,dy\,\cdot {\sqrt {\frac {-f''(x_{0})}{-f''(x_{0})+\varepsilon }}}={\sqrt {\frac {-f''(x_{0})}{-f''(x_{0})+\varepsilon }}}.}

Poiché è vero per un arbitrario ε {\displaystyle \varepsilon } , si trova il minorante:

lim n + a b e n f ( x ) d x e n f ( x 0 ) 2 π n ( f ( x 0 ) ) 1. {\displaystyle \lim _{n\to +\infty }{\frac {\int _{a}^{b}e^{nf(x)}\,dx}{e^{nf(x_{0})}{\sqrt {\frac {2\pi }{n(-f''(x_{0}))}}}}}\geq 1.}

Da notare che la dimostrazione funziona anche quando a = {\displaystyle a=-\infty } oppure b = + {\displaystyle b=+\infty } (o entrambi).

Maggiorante: La dimostrazione del maggiorante è simile a quella del minorante ma ci sono alcuni inconvenienti. Di nuovo si inizia prendendo un ε > 0 {\displaystyle \varepsilon >0} ma allo scopo di far funzionare la dimostrazione serve che ε {\displaystyle \varepsilon } sia piccolo abbastanza affinché f ( x 0 ) + ε < 0 {\displaystyle f''(x_{0})+\varepsilon <0} . Quindi, come sopra, dalla continuità di f {\displaystyle f''} e il teorema di Taylor si trova δ > 0 {\displaystyle \delta >0} tale che se | x x 0 | < δ {\displaystyle |x-x_{0}|<\delta } , allora f ( x ) f ( x 0 ) + 1 2 ( f ( x 0 ) + ε ) ( x x 0 ) 2 {\displaystyle f(x)\leq f(x_{0})+{\frac {1}{2}}(f''(x_{0})+\varepsilon )(x-x_{0})^{2}} . Infine per ipotesi (assumendo a , b {\displaystyle a,b} finiti) esiste un η > 0 {\displaystyle \eta >0} tale che se | x x 0 | δ {\displaystyle |x-x_{0}|\geq \delta } , allora f ( x ) f ( x 0 ) η {\displaystyle f(x)\leq f(x_{0})-\eta } .

Si può ora calcolare il seguente maggiorante:

a b e n f ( x ) d x a x 0 δ e n f ( x ) d x + x 0 δ x 0 + δ e n f ( x ) d x + x 0 + δ b e n f ( x ) d x ( b a ) e n ( f ( x 0 ) η ) + x 0 δ x 0 + δ e n f ( x ) d x ( b a ) e n ( f ( x 0 ) η ) + e n f ( x 0 ) x 0 δ x 0 + δ e n 2 ( f ( x 0 ) + ε ) ( x x 0 ) 2 d x ( b a ) e n ( f ( x 0 ) η ) + e n f ( x 0 ) + e n 2 ( f ( x 0 ) + ε ) ( x x 0 ) 2 d x ( b a ) e n ( f ( x 0 ) η ) + e n f ( x 0 ) 2 π n ( f ( x 0 ) ε ) . {\displaystyle {\begin{aligned}&\int _{a}^{b}e^{nf(x)}\,dx\leq \int _{a}^{x_{0}-\delta }e^{nf(x)}\,dx+\int _{x_{0}-\delta }^{x_{0}+\delta }e^{nf(x)}\,dx+\int _{x_{0}+\delta }^{b}e^{nf(x)}\,dx\leq (b-a)e^{n(f(x_{0})-\eta )}+\int _{x_{0}-\delta }^{x_{0}+\delta }e^{nf(x)}\,dx\\&\leq (b-a)e^{n(f(x_{0})-\eta )}+e^{nf(x_{0})}\int _{x_{0}-\delta }^{x_{0}+\delta }e^{{\frac {n}{2}}(f''(x_{0})+\varepsilon )(x-x_{0})^{2}}\,dx\leq (b-a)e^{n(f(x_{0})-\eta )}+e^{nf(x_{0})}\int _{-\infty }^{+\infty }e^{{\frac {n}{2}}(f''(x_{0})+\varepsilon )(x-x_{0})^{2}}\,dx\\&\leq (b-a)e^{n(f(x_{0})-\eta )}+e^{nf(x_{0})}{\sqrt {\frac {2\pi }{n(-f''(x_{0})-\varepsilon )}}}.\end{aligned}}}

Se si dividono entrambi i membri della disuguaglianza per e n f ( x 0 ) 2 π n ( f ( x 0 ) ) {\displaystyle e^{nf(x_{0})}{\sqrt {\frac {2\pi }{n(-f''(x_{0}))}}}} e se ne prende il limite si ottiene:

lim n + a b e n f ( x ) d x e n f ( x 0 ) 2 π n ( f ( x 0 ) ) lim n + ( b a ) e η n n ( f ( x 0 ) ) 2 π + f ( x 0 ) f ( x 0 ) ε = f ( x 0 ) f ( x 0 ) ε . {\displaystyle \lim _{n\to +\infty }{\frac {\int _{a}^{b}e^{nf(x)}\,dx}{e^{nf(x_{0})}{\sqrt {\frac {2\pi }{n(-f''(x_{0}))}}}}}\leq \lim _{n\to +\infty }(b-a)e^{-\eta n}{\sqrt {\frac {n(-f''(x_{0}))}{2\pi }}}+{\sqrt {\frac {-f''(x_{0})}{-f''(x_{0})-\varepsilon }}}={\sqrt {\frac {-f''(x_{0})}{-f''(x_{0})-\varepsilon }}}.}

Poiché ε {\displaystyle \varepsilon } è arbitrario si ha il maggiorante:

lim n + a b e n f ( x ) d x e n f ( x 0 ) 2 π n ( f ( x 0 ) ) 1. {\displaystyle \lim _{n\to +\infty }{\frac {\int _{a}^{b}e^{nf(x)}\,dx}{e^{nf(x_{0})}{\sqrt {\frac {2\pi }{n(-f''(x_{0}))}}}}}\leq 1.}

E combinandolo con il risultato ricavato prima si dimostra l'enunciato.

Da notare che la dimostrazione precedente fallisce quando a = {\displaystyle a=-\infty } oppure b = + {\displaystyle b=+\infty } (o entrambi). Per trattare questi casi, c'è bisogno di ulteriori ipotesi. Un'assunzione sufficiente (e non necessaria) è che per n = 1 {\displaystyle n=1} , l'integrale a b e n f ( x ) d x {\displaystyle \int _{a}^{b}e^{nf(x)}\,dx} sia finito, e che il numero η {\displaystyle \eta } come sopra esista (si osservi che questa deve essere un'ipotesi solo nel caso di a {\displaystyle a} o b {\displaystyle b} infinito). La dimostrazione procede altrimenti come prima, ma gli integrali

a x 0 δ e n f ( x ) d x + x 0 + δ b e n f ( x ) d x {\displaystyle \int _{a}^{x_{0}-\delta }e^{nf(x)}\,dx+\int _{x_{0}+\delta }^{b}e^{nf(x)}\,dx}

devono essere stimati superiormente da

a x 0 δ e n f ( x ) d x + x 0 + δ b e n f ( x ) d x a b e f ( x ) e ( n 1 ) ( f ( x 0 ) η ) d x = e ( n 1 ) ( f ( x 0 ) η ) a b e f ( x ) d x {\displaystyle \int _{a}^{x_{0}-\delta }e^{nf(x)}\,dx+\int _{x_{0}+\delta }^{b}e^{nf(x)}\,dx\leq \int _{a}^{b}e^{f(x)}e^{(n-1)(f(x_{0})-\eta )}\,dx=e^{(n-1)(f(x_{0})-\eta )}\int _{a}^{b}e^{f(x)}\,dx}

invece di ( b a ) e n ( f ( x 0 ) η ) {\displaystyle (b-a)e^{n(f(x_{0})-\eta )}} come per il minorante, così che quando si divide per e n f ( x 0 ) 2 π n ( f ( x 0 ) ) {\displaystyle e^{nf(x_{0})}{\sqrt {\frac {2\pi }{n(-f''(x_{0}))}}}} , si ottiene per questo termine

e ( n 1 ) ( f ( x 0 ) η ) a b e f ( x ) d x e n f ( x 0 ) 2 π n ( f ( x 0 ) ) = e ( n 1 ) η n e f ( x 0 ) a b e f ( x ) d x f ( x 0 ) 2 π {\displaystyle {\frac {e^{(n-1)(f(x_{0})-\eta )}\int _{a}^{b}e^{f(x)}\,dx}{e^{nf(x_{0})}{\sqrt {\frac {2\pi }{n(-f''(x_{0}))}}}}}=e^{-(n-1)\eta }{\sqrt {n}}e^{-f(x_{0})}\int _{a}^{b}e^{f(x)}\,dx{\sqrt {\frac {-f''(x_{0})}{2\pi }}}}

il cui limite per n + {\displaystyle n\to +\infty } è 0 {\displaystyle 0} . Il resto della dimostrazione (l'analisi dei termini dominanti) procede come sopra.

La condizione data nel caso di intervallo infinito è, come detto precedentemente, sufficiente ma non necessaria. Tuttavia, la condizione è soddisfatta nella maggior parte delle applicazioni: la condizione semplicemente afferma che l'integrale che si sta studiando sia ben definito (non infinito) e che il massimo della funzione in x 0 {\displaystyle x_{0}} sia un "vero" massimo (il numero η > 0 {\displaystyle \eta >0} deve esistere). Non c'è inoltre bisogno di richiedere che l'integrale sia finito per n = 1 {\displaystyle n=1} ma è sufficiente che lo sia per un qualche n = N {\displaystyle n=N} .

Applicazione: approssimazione di Stirling

Il metodo di Laplace può essere utilizzato per derivare l'approssimazione di Stirling

N ! 2 π N N N e N , {\displaystyle N!\approx {\sqrt {2\pi N}}N^{N}e^{-N},}

per un intero N {\displaystyle N} grande.

Dalla definizione della funzione Gamma, si ha

N ! = Γ ( N + 1 ) = 0 e x x N d x . {\displaystyle N!=\Gamma (N+1)=\int _{0}^{\infty }e^{-x}x^{N}\,dx.}

Ora effettuando il cambio di variabile

x = N z {\displaystyle x=Nz}

si ottiene

N ! = 0 e N z ( N z ) N N d z = N N + 1 0 e N z z N d z = N N + 1 0 e N z e N ln z d z = N N + 1 0 e N ( ln z z ) d z . {\displaystyle N!=\int _{0}^{\infty }e^{-Nz}\left(Nz\right)^{N}N\,dz=N^{N+1}\int _{0}^{\infty }e^{-Nz}z^{N}\,dz=N^{N+1}\int _{0}^{\infty }e^{-Nz}e^{N\ln z}\,dz=N^{N+1}\int _{0}^{\infty }e^{N(\ln z-z)}\,dz.}

Questo integrale ha la forma necessaria per il metodo di Laplace con

f ( z ) = ln z z {\displaystyle f\left(z\right)=\ln {z}-z}

che è derivabile con continuità due volte:

f ( z ) = 1 z 1 , {\displaystyle f'(z)={\frac {1}{z}}-1,}
f ( z ) = 1 z 2 . {\displaystyle f''(z)=-{\frac {1}{z^{2}}}.}

Il massimo di f ( x ) {\displaystyle f(x)} si trova z 0 = 1 {\displaystyle z_{0}=1} , e la derivata seconda in quel punto ha valore 1 {\displaystyle -1} . Pertanto, si ricava

N ! N N + 1 2 π N e N = 2 π N N N e N . {\displaystyle N!\approx N^{N+1}{\sqrt {\frac {2\pi }{N}}}e^{-N}={\sqrt {2\pi N}}N^{N}e^{-N}.}

Generalizzazioni

L'approssimazione di Laplace può essere generalizzata agli integrali nella forma

a b h ( x ) e M g ( x ) d x 2 π M | g ( x 0 ) | h ( x 0 ) e M g ( x 0 ) , con  M + , {\displaystyle \int _{a}^{b}h(x)e^{Mg(x)}\,dx\approx {\sqrt {\frac {2\pi }{M|g''(x_{0})|}}}h(x_{0})e^{Mg(x_{0})},\qquad {\text{con }}M\to +\infty ,}

dove h {\displaystyle h} è positiva. È importante sottolineare che la precisione dell'approssimazione dipende dalla variabile di integrazione.[1]

Nel caso a più variabili, dove x {\displaystyle \mathbf {x} } è un vettore n {\displaystyle n} -dimensionale e f ( x ) {\displaystyle f(\mathbf {x} )} è una funzione scalare di x {\displaystyle \mathbf {x} } , l'approssimazione di Laplace diventa:

e M f ( x ) d x ( 2 π M ) n / 2 | H ( f ) ( x 0 ) | 1 / 2 e M f ( x 0 ) , con  M + , {\displaystyle \int e^{Mf(\mathbf {x} )}\,d\mathbf {x} \approx \left({\frac {2\pi }{M}}\right)^{n/2}|-H(f)(\mathbf {x} _{0})|^{-1/2}e^{Mf(\mathbf {x} _{0})},\qquad {\text{con }}M\to +\infty ,}

con H ( f ) ( x 0 ) {\displaystyle H(f)(\mathbf {x} _{0})} la matrice hessiana di f {\displaystyle f} calcolata in x 0 {\displaystyle \mathbf {x} _{0}} e dove | | {\displaystyle |\cdot |} indica il determinante. Analogamente al caso di una variabile, la matrice hessiana deve essere definita negativa.[2]

Precisione del metodo

Prima di tutto, si ponga senza perdita di generalità che il massimo globale si trovi in x 0 = 0 {\displaystyle x_{0}=0} . Perciò, quello che si vuole è l'errore relativo | R | {\displaystyle \left|R\right|} come mostrato sotto

a b h ( x ) e M g ( x ) d x = h ( 0 ) e M g ( 0 ) s a / s b / s h ( x ) h ( 0 ) e M [ g ( s y ) g ( 0 ) ] d y 1 + R , {\displaystyle \int _{a}^{b}\!h(x)e^{Mg(x)}\,dx=h(0)e^{Mg(0)}s\underbrace {\int _{a/s}^{b/s}{\frac {h(x)}{h(0)}}e^{M\left[g(sy)-g(0)\right]}dy} _{1+R},}

dove s 2 π M | g ( 0 ) | {\displaystyle s\equiv {\sqrt {\frac {2\pi }{M\left|g''(0)\right|}}}} . Quindi, posto A h ( s y ) h ( 0 ) e M [ g ( s y ) g ( 0 ) ] {\displaystyle A\equiv {\frac {h(sy)}{h(0)}}e^{M\left[g(sy)-g(0)\right]}} e A 0 e π y 2 {\displaystyle A_{0}\equiv e^{-\pi y^{2}}} , si ottiene

| R | = | a / s b / s A d y A 0 d y | {\displaystyle \left|R\right|=\left|\int _{a/s}^{b/s}A\,dy-\int _{-\infty }^{\infty }A_{0}\,dy\right|}

poiché A 0 d y = 1 {\displaystyle \int _{-\infty }^{\infty }A_{0}\,dy=1} . Ora si deve trovare un maggiorante.

Grazie a | A + B | | A | + | B | {\displaystyle \left|A+B\right|\leq |A|+|B|} , si può separare l'integrazione in 5 parti di 3 differenti tipi: ( a ) {\displaystyle (a)} , ( b ) {\displaystyle (b)} e ( c ) {\displaystyle (c)} , rispettivamente. Pertanto,

| R | < | D y A 0 d y | ( a 1 ) + | D y b / s A d y | ( b 1 ) + | D y D y ( A A 0 ) d y | ( c ) + | a / s D y A d y | ( b 2 ) + | D y A 0 d y | ( a 2 ) , {\displaystyle |R|<\underbrace {\left|\int _{D_{y}}^{\infty }A_{0}dy\right|} _{(a_{1})}+\underbrace {\left|\int _{D_{y}}^{b/s}Ady\right|} _{(b_{1})}+\underbrace {\left|\int _{-D_{y}}^{D_{y}}\left(A-A_{0}\right)dy\right|} _{(c)}+\underbrace {\left|\int _{a/s}^{-D_{y}}Ady\right|} _{(b_{2})}+\underbrace {\left|\int _{-\infty }^{-D_{y}}A_{0}dy\right|} _{(a_{2})},}

dove ( a 1 ) {\displaystyle (a_{1})} e ( a 2 ) {\displaystyle (a_{2})} sono simili, quindi si calcolerà solo ( a 1 ) {\displaystyle (a_{1})} , e analogamente per ( b 1 ) {\displaystyle (b_{1})} e ( b 2 ) {\displaystyle (b_{2})} .

Per ( a 1 ) {\displaystyle (a_{1})} , dopo aver rinominato z π y 2 {\displaystyle z\equiv \pi y^{2}} , si ha

( a 1 ) = | 1 2 π π D y 2 e z z 1 / 2 d z | < e π D y 2 2 π D y . {\displaystyle (a_{1})=\left|{\frac {1}{2{\sqrt {\pi }}}}\int _{\pi D_{y}^{2}}^{\infty }e^{-z}z^{-1/2}dz\right|<{\frac {e^{-\pi D_{y}^{2}}}{2\pi D_{y}}}.}

Questo significa che fintanto che D y {\displaystyle D_{y}} è abbastanza grande, esso tenderà a zero.

Per ( b 1 ) {\displaystyle (b_{1})} , si ricava

( b 1 ) | D y b / s [ h ( s y ) h ( 0 ) ] m a x e M m ( s y ) d y | , {\displaystyle (b_{1})\leq \left|\int _{D_{y}}^{b/s}\left[{\frac {h(sy)}{h(0)}}\right]_{\mathrm {max} }e^{Mm(sy)}dy\right|,}

dove

m ( x ) g ( x ) g ( 0 ) , con  x [ s D y , b ] {\displaystyle m(x)\geq g(x)-g(0),\qquad {\text{con }}x\in [sD_{y},b]}

e h ( x ) {\displaystyle h(x)} dovrebbe avere lo stesso segno di h ( 0 ) {\displaystyle h(0)} nella regione. Si scelga m ( x ) {\displaystyle m(x)} come la tangente in x = s D y {\displaystyle x=sD_{y}} , cioè m ( s y ) = g ( s D y ) g ( 0 ) + g ( s D y ) ( s y s D y ) {\displaystyle m(sy)=g(sD_{y})-g(0)+g'(sD_{y})\left(sy-sD_{y}\right)} (che è mostrata in figura).

m ( x ) {\displaystyle m(x)} è la tangente in x = s D y {\displaystyle x=sD_{y}} .

Dalla figura si può osservare che quando s {\displaystyle s} o D y {\displaystyle D_{y}} diventa piccolo, la regione che soddisfa la precedente disuguaglianza diventa sempre più grande. Dunque, se si vuole trovare una m ( x ) {\displaystyle m(x)} adatta a coprire l'intera f ( x ) {\displaystyle f(x)} nell'intervallo di ( b 1 ) {\displaystyle (b_{1})} , D y {\displaystyle D_{y}} deve avere un estremo superiore. Inoltre, siccome l'integrale e α x {\displaystyle e^{-\alpha x}} è semplice, si userà per stimare l'errore relativo dovuto a ( b 1 ) {\displaystyle (b_{1})} .

Usando lo sviluppo di Taylor, si ottiene

M [ g ( s D y ) g ( 0 ) ] = M [ g ( 0 ) 2 s 2 D y 2 + g ( ξ ) 6 s 3 D y 3 ] con ξ [ 0 , s D y ] = π D y 2 + ( 2 π ) 3 / 2 g ( ξ ) D y 3 6 M | g ( 0 ) | 3 / 2 , {\displaystyle M\left[g(sD_{y})-g(0)\right]=M\left[{\frac {g''(0)}{2}}s^{2}D_{y}^{2}+{\frac {g'''(\xi )}{6}}s^{3}D_{y}^{3}\right]\,\,{\text{con}}\,\,\xi \in [0,sD_{y}]=-\pi D_{y}^{2}+{\frac {(2\pi )^{3/2}g'''(\xi )D_{y}^{3}}{6{\sqrt {M}}|g''(0)|^{3/2}}},}

e

M s g ( s D y ) = M s ( g ( 0 ) s D y + g ( ζ ) 2 s 2 D y 2 ) , con  ζ [ 0 , s D y ] = 2 π D y + 2 M ( π | g ( 0 ) | ) 3 / 2 g ( ζ ) D y 2 , {\displaystyle Msg'(sD_{y})=Ms\left(g''(0)sD_{y}+{\frac {g'''(\zeta )}{2}}s^{2}D_{y}^{2}\right),\qquad {\text{con }}\zeta \in [0,sD_{y}]=-2\pi D_{y}+{\sqrt {\frac {2}{M}}}\left({\frac {\pi }{|g''(0)|}}\right)^{3/2}g'''(\zeta )D_{y}^{2},}

e si sostituisce nel calcolo di ( b 1 ) {\displaystyle (b_{1})} . Tuttavia, si trova che i resti dei due sviluppi sono entrambi inversamente proporzionali alla radice di M {\displaystyle M} , perciò si tralasceranno per rendere più elegante il calcolo.

( b 1 ) | [ h ( s y ) h ( 0 ) ] max e π D y 2 0 b / s D y e 2 π D y y d y | | [ h ( s y ) h ( 0 ) ] max e π D y 2 1 2 π D y | . {\displaystyle (b_{1})\leq \left|\left[{\frac {h(sy)}{h(0)}}\right]_{\text{max}}e^{-\pi D_{y}^{2}}\int _{0}^{b/s-D_{y}}e^{-2\pi D_{y}y}dy\right|\leq \left|\left[{\frac {h(sy)}{h(0)}}\right]_{\text{max}}e^{-\pi D_{y}^{2}}{\frac {1}{2\pi D_{y}}}\right|.}

In aggiunta, tenderà a zero quando D y {\displaystyle D_{y}} diventa arbitrariamente grande, ma non si dimentichi che il limite superiore di D y {\displaystyle D_{y}} deve essere considerato nel calcolo.

A proposito dell'integrazione vicino a x = 0 {\displaystyle x=0} , si può usare anche il teorema di Taylor per calcolarlo. Quando h ( 0 ) 0 {\displaystyle h'(0)\neq 0}

( c ) D y D y e π y 2 | s h ( ξ ) h ( 0 ) y | d y < 2 π M | g ( 0 ) | | h ( ξ ) h ( 0 ) | max ( 1 e π D y 2 ) {\displaystyle (c)\leq \int _{-D_{y}}^{D_{y}}e^{-\pi y^{2}}\left|{\frac {sh'(\xi )}{h(0)}}y\right|\,dy<{\sqrt {\frac {2}{\pi M|g''(0)|}}}\left|{\frac {h'(\xi )}{h(0)}}\right|_{\text{max}}\left(1-e^{-\pi D_{y}^{2}}\right)}

e si trova che è inversamente proporzionale a M {\displaystyle {\sqrt {M}}} . Infatti, ( c ) {\displaystyle (c)} avrà lo stesso comportamento quando h ( x ) {\displaystyle h(x)} è costante.

Infine, l'integrazione vicino al punto stazionario diventa piccola quando M {\displaystyle {\sqrt {M}}} diventa grande, e le parti rimanenti tenderanno a zero fintanto che D y {\displaystyle D_{y}} è abbastanza grande, ma quest'ultimo ha un estremo superiore dovuto alla condizione che la funzione m ( x ) {\displaystyle m(x)} è sempre maggiore di g ( x ) g ( 0 ) {\displaystyle g(x)-g(0)} nella regione rimanente. Tuttavia, fino a che si trova un m ( x ) {\displaystyle m(x)} che soddisfa la condizione, l'estremo superiore di D y {\displaystyle D_{y}} può essere scelto direttamente proporzionale a M {\displaystyle {\sqrt {M}}} poiché m ( x ) {\displaystyle m(x)} è la tangente di g ( x ) g ( 0 ) {\displaystyle g(x)-g(0)} in x = s D y {\displaystyle x=sD_{y}} . Quindi, più grande è M {\displaystyle M} , più può essere grande D y {\displaystyle D_{y}} .

Estensione del metodo di Laplace: la discesa del gradiente

Lo stesso argomento in dettaglio: Discesa del gradiente.

Un'estensione del metodo di Laplace all'analisi complessa, insieme alla formula integrale di Cauchy, è usata per trovare un contorno di "discesa più ripida" per un (asintoticamente per grandi M {\displaystyle M} ) integrale equivalente, espresso come un integrale di linea. In particolare, se non esistono punti sulla retta reale in cui la derivata di f {\displaystyle f} si annulla, può essere necessario deformare in contorno di integrazione in uno ottimale, dove l'analisi discussa prima è possibile. Ancora l'idea principale è di ridurre, almeno in modo asintotico, il calcolo del dato integrale a uno più semplice e che quindi può essere valutato esplicitamente. Si veda il libro di Erdelyi (1956) per una semplice discussione (dove il metodo è chiamato "discesa del gradiente")

L'appropriata formulazione per il piano complesso è

a b e M f ( z ) d z 2 π M f ( z 0 ) e M f ( z 0 ) , con  M + . {\displaystyle \int _{a}^{b}\!e^{Mf(z)}\,dz\approx {\sqrt {\frac {2\pi }{-Mf''(z_{0})}}}e^{Mf(z_{0})},\qquad {\text{con }}M\to +\infty .}

per un percorso passante attraverso il punto di sella in z 0 {\displaystyle z_{0}} . Da notare l'esplicita presenza di un segno meno ad indicare la direzione della derivata seconda: non se ne può prendere il modulo. Inoltre se la funzione integranda è meromorfa, si può dover aggiungere i residui corrispondenti ai poli attraversati durante la deformazione del contorno (vedere per esempio la sezione 3 dell'artico di Okounkov "Symmetric functions and random partitions").

Note

  1. ^ Ronald W Butler, Saddlepoint approximations and applications, Cambridge University Press, 2007, ISBN 978-0-521-87250-8.
  2. ^ David J. C. MacKay, Information Theory, Inference and Learning Algorithms, Cambridge, Cambridge University Press, settembre 2003, ISBN 978-0-521-64298-9.

Bibliografia

  • A. Azevedo-Filho e R. Shachter, Laplace's Method Approximations for Probabilistic Inference in Belief Networks with Continuous Variables, in Mantaras R. (a cura di), Uncertainty in Artificial Intelligence, San Francisco, CA, Morgan Kaufmann, 1994.
  • P. Deift e X. Zhou, A steepest descent method for oscillatory Riemann–Hilbert problems. Asymptotics for the MKdV equation, in Ann. of Math., vol. 137, n. 2, 1993, pp. 295–368, DOI:10.2307/2946540.
  • A. Erdelyi, Asymptotic Expansions, Dover, 1956.
  • A. Fog, Calculation Methods for Wallenius' Noncentral Hypergeometric Distribution, in Communications in Statistics, Simulation and Computation, vol. 37, n. 2, 2008, pp. 258–273, DOI:10.1080/03610910701790269.
  • S. Kamvissis, K. T.-R. McLaughlin e P. Miller, Semiclassical Soliton Ensembles for the Focusing Nonlinear Schrödinger Equation, in Annals of Mathematics Studies, vol. 154, Princeton University Press, 2003.
  • Laplace, P. S. (1774). Memoir on the probability of causes of events. Mémoires de Mathématique et de Physique, Tome Sixième. (English translation by S. M. Stigler 1986. Statist. Sci., 1(19):364–378).
  • Xiang-Sheng Wang e Roderick Wong, Discrete analogues of Laplace's approximation, in Asymptot. Anal., vol. 54, n. 3-4, 2007, pp. 165–180.

Voci correlate

  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica