Wzór sumacyjny Eulera

Wzór sumacyjny Eulera (ang. Euler’s summation formula)[1][2][3][4] – tożsamość stosowana w analitycznej teorii liczb. Podobnie jak wzór sumacyjny Abela, pozwala on wyrazić dyskretną sumę wartości danej funkcji różniczkowalnej przez całkę. Wzór ten został przedstawiony przez Leonharda Eulera w 1736 r.[3], a następnie uogólniony[4]. Jest to szczególny przypadek wzoru sumacyjnego Eulera-Maclaurina[1].

Treść twierdzenia

Niech dane będą liczby 0 < y x {\displaystyle 0<y\leqslant x} oraz funkcja f {\displaystyle f} różniczkowalna na przedziale [ x , y ] . {\displaystyle [x,y].} Wówczas

y < n x f ( n ) = y x f ( t ) d t + y x { t } f ( t ) d t { x } f ( x ) + { y } f ( y ) , {\displaystyle \sum _{y<n\leqslant x}f(n)=\int _{y}^{x}f(t)dt+\int _{y}^{x}\{t\}f'(t)dt-\{x\}f(x)+\{y\}f(y),}

gdzie suma po lewej stronie jest po wszystkich liczbach całkowitych n ( y , x ] , {\displaystyle n\in (y,x],} a { t } {\displaystyle \{t\}} oznacza część ułamkową liczby t . {\displaystyle t.}

Dowód. Oznaczając F ( x ) = [ x ] = x { x } , {\displaystyle F(x)=[x]=x-\{x\},} sumę po prawej możemy wyrazić jako całkę Riemanna-Stieltjesa

y < n x f ( n ) = y x f ( t ) d F ( t ) = y x f ( t ) d t y x f ( t ) d { t } . {\displaystyle \sum _{y<n\leqslant x}f(n)=\int _{y}^{x}f(t)dF(t)=\int _{y}^{x}f(t)dt-\int _{y}^{x}f(t)d\{t\}.}

Drugą z nich możemy wyrazić całkując przez części,

y x f ( t ) d { t } = { x } f ( x ) { y } f ( y ) y x { t } f ( t ) d t . {\displaystyle \int _{y}^{x}f(t)d\{t\}=\{x\}f(x)-\{y\}f(y)-\int _{y}^{x}\{t\}f'(t)dt.}

Stąd wynika wzór Eulera[5].

Przykłady

Szereg harmoniczny

 Osobny artykuł: Szereg harmoniczny.

Niech

S ( x ) = n x 1 n . {\displaystyle S(x)=\sum _{n\leqslant x}{\frac {1}{n}}.}

Udowodnimy, że

S ( x ) = log x + γ + O ( 1 x ) , {\displaystyle S(x)=\log x+\gamma +O\left({\frac {1}{x}}\right),}

gdzie log {\displaystyle \log } to logarytm naturalny, a γ {\displaystyle \gamma } to stała Eulera-Mascheroniego. Dla x 1 {\displaystyle x\geqslant 1} zachodzi

S ( x ) = 1 x d t t 1 x { t } d t t 2 + { x } x + 1 = log x I ( x ) + 1 + O ( 1 x ) , {\displaystyle S(x)=\int _{1}^{x}{\frac {dt}{t}}-\int _{1}^{x}\{t\}{\frac {dt}{t^{2}}}+{\frac {\{x\}}{x}}+1=\log x-I(x)+1+O\left({\frac {1}{x}}\right),}

gdzie:

I ( x ) = 1 x { t } d t t 2 . {\displaystyle I(x)=\int _{1}^{x}\{t\}{\frac {dt}{t^{2}}}.}

Zauważmy, że przy x {\displaystyle x\to \infty } całka I ( x ) {\displaystyle I(x)} jest zbieżna. Dlatego możemy zapisać

I ( x ) = 1 { t } d t t 2 x { t } d t t 2 = I x { t } d t t 2 = I + O ( x d t t 2 ) = I + O ( 1 x ) , {\displaystyle I(x)=\int _{1}^{\infty }\{t\}{\frac {dt}{t^{2}}}-\int _{x}^{\infty }\{t\}{\frac {dt}{t^{2}}}=I-\int _{x}^{\infty }\{t\}{\frac {dt}{t^{2}}}=I+O\left(\int _{x}^{\infty }{\frac {dt}{t^{2}}}\right)=I+O\left({\frac {1}{x}}\right),}

gdzie I = lim x I ( x ) . {\displaystyle I=\lim _{x\to \infty }I(x).} To dowodzi, że

S ( x ) = log x + 1 I + O ( 1 x ) , {\displaystyle S(x)=\log x+1-I+O\left({\frac {1}{x}}\right),}

gdzie stała 1 I {\displaystyle 1-I} jest z definicji równa

1 I = lim x ( S ( x ) log x ) = γ . {\displaystyle 1-I=\lim _{x\to \infty }(S(x)-\log x)=\gamma .}

To dowodzi podanej zależności[6].

Wzór Stirlinga

 Osobny artykuł: Wzór Stirlinga.

Wykażemy prawdziwość wzoru Stirlinga w postaci

x ! = C x x x e x ( 1 + O ( 1 x ) ) {\displaystyle \lfloor x\rfloor !=C{\sqrt {x}}x^{x}e^{-x}\left(1+O\left({\frac {1}{x}}\right)\right)}

dla pewnej stałcej C , {\displaystyle C,} gdzie x {\displaystyle \lfloor x\rfloor } oznacza podłogę z liczby x {\displaystyle x} [7]. Skorzystamy z postaci silni jako sumy częściowej logarytmów naturalnych,

x ! = exp ( log ( x ! ) ) = exp ( n x log n ) . {\displaystyle \lfloor x\rfloor !=\exp(\log(\lfloor x\rfloor !))=\exp \left(\sum _{n\leqslant x}\log n\right).}

Ze wzoru sumacyjnego Eulera zachodzi

n x log n = 1 x log t d t + 1 x { t } t d t { x } log x . {\displaystyle \sum _{n\leqslant x}\log n=\int _{1}^{x}\log t\;dt+\int _{1}^{x}{\frac {\{t\}}{t}}dt-\{x\}\log x.}

Pierwsza całka wynosi

1 x log t d t = t ( log t 1 ) | 1 x = x log x x + 1. {\displaystyle \int _{1}^{x}\log t\;dt=\left.t(\log t-1)\right|_{1}^{x}=x\log x-x+1.}

W przypadku drugiej całki zdefiniujemy funkcję pomocniczą ρ ( t ) = 1 2 { t } . {\textstyle \rho (t)={\frac {1}{2}}-\{t\}.}

1 x { t } t d t = 1 x 1 2 t d t 1 x ρ ( t ) t d t = I 1 ( x ) I 2 ( x ) . {\displaystyle \int _{1}^{x}{\frac {\{t\}}{t}}dt=\int _{1}^{x}{\frac {1}{2t}}dt-\int _{1}^{x}{\frac {\rho (t)}{t}}dt=I_{1}(x)-I_{2}(x).}

Widzimy, że

I 1 ( x ) = 1 2 log x . {\displaystyle I_{1}(x)={\frac {1}{2}}\log x.}

W przypadku I 2 ( x ) {\displaystyle I_{2}(x)} skorzystamy z całkowania przez części.

I 2 ( x ) = R ( t ) t | 1 x + I 3 ( x ) , {\displaystyle I_{2}(x)=\left.{\frac {R(t)}{t}}\right|_{1}^{x}+I_{3}(x),}

gdzie:

R ( x ) = 1 x ρ ( t ) d t {\displaystyle R(x)=\int _{1}^{x}\rho (t)dt}

oraz

I 3 ( x ) = 1 x R ( t ) t 2 d t . {\displaystyle I_{3}(x)=\int _{1}^{x}{\frac {R(t)}{t^{2}}}dt.}

Ponieważ funkcja ρ {\displaystyle \rho } jest okresowa, z okresem 1, i | ρ ( x ) | 1 2 , {\textstyle |\rho (x)|\leqslant {\frac {1}{2}},} to | R ( x ) | 1 2 . {\textstyle |R(x)|\leqslant {\frac {1}{2}}.} Dlatego

R ( t ) t | 1 x = O ( 1 x ) . {\displaystyle \left.{\frac {R(t)}{t}}\right|_{1}^{x}=O\left({\frac {1}{x}}\right).}

Dodatkowo, wynika stąd, że całka I 3 ( x ) {\displaystyle I_{3}(x)} jest ograniczona z góry,

I 3 ( x ) 1 x | R ( t ) | t 2 d t 1 2 1 x d t t 2 = 1 2 ( 1 d t t 2 x d t t 2 ) = 1 2 + O ( 1 x ) . {\displaystyle I_{3}(x)\leqslant \int _{1}^{x}{\frac {|R(t)|}{t^{2}}}dt\leqslant {\frac {1}{2}}\int _{1}^{x}{\frac {dt}{t^{2}}}={\frac {1}{2}}\left(\int _{1}^{\infty }{\frac {dt}{t^{2}}}-\int _{x}^{\infty }{\frac {dt}{t^{2}}}\right)={\frac {1}{2}}+O\left({\frac {1}{x}}\right).}

Powyższe nierówności są prawdziwe, ponieważ całka po t 2 {\textstyle t^{-2}} jest zbieżna.

Łącząc uzyskane zależności, otrzymamy

n x log n = x log x x + 1 2 log x + c + O ( 1 x ) . {\displaystyle \sum _{n\leqslant x}\log n=x\log x-x+{\frac {1}{2}}\log x+c+O\left({\frac {1}{x}}\right).}

Biorąc exp {\displaystyle \exp } obu stron, uzyskamy wzór.

Funkcja zeta Riemanna

 Osobny artykuł: Funkcja dzeta Riemanna.

Udowodnimy, że funkcja zeta zdefiniowana za pomocą szeregu

ζ ( s ) = n = 1 1 n s {\displaystyle \zeta (s)=\sum _{n=1}^{\infty }{\frac {1}{n^{s}}}}

dla wszystkich liczb zespolonych s {\displaystyle s} o części rzeczywistej ( s ) > 1 {\displaystyle \Re (s)>1} spełnia zależność[8]

ζ ( s ) = s s 1 1 { t } t s + 1 d t . {\displaystyle \zeta (s)={\frac {s}{s-1}}-\int _{1}^{\infty }{\frac {\{t\}}{t^{s+1}}}dt.}

Biorąc f ( n ) = n s , {\displaystyle f(n)=n^{-s},} otrzymamy

n x 1 n s = 1 x d t t s s 1 x { t } t s + 1 d t { x } x s + 1. {\displaystyle \sum _{n\leqslant x}{\frac {1}{n^{s}}}=\int _{1}^{x}{\frac {dt}{t^{s}}}-s\int _{1}^{x}{\frac {\{t\}}{t^{s+1}}}dt-{\frac {\{x\}}{x^{s}}}+1.}

Aby z lewej strony równania otrzymać funkcję Riemanna, chcemy aby x . {\displaystyle x\to \infty .} Widzimy, że

1 x d t t s = 1 x 1 s s 1 = 1 s 1 1 x s 1 ( s 1 ) = 1 s 1 . {\displaystyle \int _{1}^{x}{\frac {dt}{t^{s}}}={\frac {1-x^{1-s}}{s-1}}={\frac {1}{s-1}}-{\frac {1}{x^{s-1}(s-1)}}={\frac {1}{s-1}}.}

Stąd

ζ ( s ) = 1 1 s 1 s 1 { t } t s + 1 d t = s s 1 s 1 { t } t s + 1 d t {\displaystyle \zeta (s)=1-{\frac {1}{s-1}}-s\int _{1}^{\infty }{\frac {\{t\}}{t^{s+1}}}dt={\frac {s}{s-1}}-s\int _{1}^{\infty }{\frac {\{t\}}{t^{s+1}}}dt}

dla ( s ) > 1. {\displaystyle \Re (s)>1.}

Przypisy

  1. a b Tom M.T.M. Apostol Tom M.T.M., An Elementary View of Euler’s Summation Formula, „The American Mathematical Monthly”, 106 (5), 1999, s. 409–418, DOI: 10.1080/00029890.1999.12005063, ISSN 0002-9890 .
  2. E.E. Hairer E.E., G.G. Wanner G.G., Analysis by Its History, „Undergraduate Texts in Mathematics”, 2008, s. 159–161, DOI: 10.1007/978-0-387-77036-9, ISSN 0172-6056  (ang.).
  3. a b LeonhardL. Euler LeonhardL., Methodus universalis serierum convergentium summas quam proxime invenien, „Commentarii academie scientiarum Petropolitana”, 8, 1736, s. 3–9 .
  4. a b LeonhardL. Euler LeonhardL., Methodus universalis series summandi ulterius promot, „Commentarii academie scientiarum Petropolitana”, 1736, s. 147–158 .
  5. Hildebrandt 2005 ↓, s. 50–51.
  6. Hildebrandt 2005 ↓, s. 51–52.
  7. Hildebrandt 2005 ↓, s. 52–54.
  8. Hildebrandt 2005 ↓, s. 55–56.

Bibliografia

  • Adolf J.A.J. Hildebrandt Adolf J.A.J., Introduction to Analytic Number Theory, Math 531 Lecture Notes [online], University of Illinois Department of Mathematics, 2005 [dostęp 2013-01-07]  (ang.).