Sommes de Riemann à tout-va !

Voici un énoncé (pas le plus général) du théorème de convergence des sommes de Riemann :

Théorème

Soit f:\left[a,b\right]\rightarrow\mathbb{R} une application intégrable au sens au de Riemann.
Si l’on pose pour tout n\in\mathbb{N}^{\star} :

    \[S_{n}=\dfrac{b-a}{n}\sum_{k=1}^{n}f\left(a+\dfrac{k\left(b-a\right)}{n}\right)\]

alors :

    \[\lim_{n\rightarrow+\infty}S_{n}=\int_{a}^{b}f\left(t\right)\thinspace dt\]

Interprétation géométrique : lorsque n tend vers l’infini, la somme des aires algébriques des rectangles associés à la subdivision régulière de \left[a,b\right] en n « tranches » converge vers l’intégrale de f.

Dans la vidéo ci-dessous, qui est disponible sur la chaine YouTube du blog Math-OS, on démontre ce théorème pour f de classe C^{1} et aussi (un peu plus généralement et en faisant intervenir le théorème de Heine) pour f continue :

On admettra ici que le résultat persiste sous la seule hypothèse que f est intégrable au sens de Riemann.

Dans ce qui suit, quelques exemples d’utilisation de ce théorème sont présentés en détail.

Encore deux remarques avant de commencer :

Remarque 1

Dans l’énoncé du théorème, on peut remplacer « somme de Riemann à droite » par « somme de Riemann à gauche », c’est-à-dire S_{n} par :

    \[S'_{n}=\dfrac{b-a}{n}\sum_{k=0}^{n-1}f\left(a+\dfrac{k\left(b-a\right)}{n}\right)\]

Vu que :

    \[S_{n}-S'_{n}=\dfrac{b-a}{n}\left(f\left(b\right)-f\left(a\right)\right)\underset{n\rightarrow+\infty}{\longrightarrow}0 \]

il est clair qu’on a aussi :

    \[ \lim_{n\rightarrow+\infty}S'_{n}=\int_{a}^{b}f\left(t\right)\thinspace dt\]

Remarque 2

En choisissant a=0 et b=1 dans le théorème, il apparaît une formule un peu plus simple (à laquelle on peut toujours se ramener quitte à composer f par une fonction affine convenable) :

    \[\lim_{n\rightarrow+\infty}\dfrac{1}{n}\sum_{k=1}^{n}f\left(\dfrac{k}{n}\right)=\int_{0}^{1}f\left(t\right)\thinspace dt\]

1 – Urnes et boules de couleurs

Étant donné un entier n\geqslant2, on dispose de n urnes renfermant chacune des boules de couleurs :

  • l’urne 1 contient n boules bleues et 1 boule rouge
  • l’urne 2 contient n boules bleues et 2 boules rouges
  • l’une k contient n boules bleues et k boules rouges
  • l’urne n contient n boules bleues et n boules rouges

L’illustration ci-dessous montre la configuration pour n=12 :

On envisage alors l’expérience aléatoire suivante. On sélectionne au hasard une urne (les différents choix sont équiprobables) puis, dans cette urne, on tire au hasard une boule (chaque boule présente dans l’urne ayant autant de chances d’être choisie qu’une autre). On note alors p_{n} la probabilité que la boule sélectionnée soit rouge.

On va calculer explicitement p_{n}, puis préciser sa limite lorsque n tend vers +\infty.

Si l’on note U_{k} l’évènement « l’urne sélectionnée porte le numéro k » et R l’évènement « la boule sélectionnée est rouge », alors d’après la formule des probabilités totales :

    \[p_{n}=\mathbb{P}\left(R\right)=\sum_{k=1}^{n}\mathbb{P}_{U_{k}}\left(R\right)\thinspace\mathbb{P}\left(U_{k}\right)\]

\mathbb{P}_{U_{k}}\left(R\right) désigne la probabilité conditionnelle de R sachant U_{k}. Or, pour tout k\in\left\llbracket 1,n\right\rrbracket :

    \[\mathbb{P}\left(U_{k}\right)=\dfrac{1}{n}\]

et :

    \[\mathbb{P}_{U_{k}}\left(R\right)=\dfrac{k}{n+k}\]

Ainsi :

    \[\boxed{p_{n}=\dfrac{1}{n}\sum_{k=1}^{n}\dfrac{k}{n+k}}\]

que l’on peut écrire sous la forme :

    \[p_{n}=\dfrac{1}{n}\sum_{k=1}^{n}\thinspace f\left(\dfrac{k}{n}\right)\]

avec f:\left[0,1\right]\rightarrow\mathbb{R},\thinspace t\mapsto\dfrac{t}{1+t}. On reconnaît une somme de Riemann pour f et donc :

    \[\lim_{n\rightarrow+\infty}p_{n}=\int_{0}^{1}\dfrac{t}{1+t}\thinspace dt\]

Cette dernière intégale se calcule aisément, si l’on remarque que pour tout t\in\left[0,1\right] :

    \[\dfrac{t}{1+t}=1-\dfrac{1}{1+t}\]

ce qui donne :

    \[\int_{0}^{1}\dfrac{t}{1+t}\thinspace dt=\int_{0}^{1}\left(1-\dfrac{1}{1+t}\right)\thinspace dt=\left[t-\ln\left(1+t\right)\right]_{0}^{1}=1-\ln\left(2\right) \]

Finalement :

    \[\fcolorbox{black}{myBlue}{$\displaystyle{\lim_{n\rightarrow+\infty}p_{n}=1-\ln\left(2\right)}$}\]

Précisons que l’usage du théorème de convergence des sommes de Riemann ne s’imposait pas. En effet, si l’on note H_{n} le n-ème nombre harmonique, défini par :

    \[H_{n}=\sum_{k=1}^{n}\dfrac{1}{k}\]

on voit que :

    \[p_{n}=\dfrac{1}{n}\sum_{k=1}^{n}\left(1-\dfrac{n}{n+k}\right)=1-\sum_{k=1}^{n}\dfrac{1}{n+k}\]

donc, en ré-indexant cette dernière somme :

    \[p_{n}=1-\sum_{k=n+1}^{2n}\dfrac{1}{k}=1-\left(H_{2n}-H_{n}\right)\]

Or, il est classique que, lorsque n tend vers +\infty :

    \[H_{n}=\ln\left(n\right)+\gamma+o\left(1\right)\]

\gamma désigne la constante d’Euler. Ainsi :

    \[p_{n}=1-\left(\ln\left(2n\right)+\gamma-\ln\left(n\right)-\gamma+o\left(1\right)\right)=1-\ln\left(2\right)+o\left(1\right)\]

On retrouve bien la limite obtenue plus haut. Pour plus d’information sur la constante d’Euler, on pourra consulter cette vidéo :

2 – Une intégrale pas commode

Dans la section précédente, on a essentiellement calculé la limite d’une somme, en détectant qu’il s’agissait d’une somme de Riemann pour une certaine fonction. De nombreux exercices sont construits autour de cette simple idée (« simple » … à condition de savoir ce qu’est une somme de Riemann et aussi de reconnaître, en situation, de quoi il retourne).

Voici quelques exemples de questions de ce type (les réponses sont fournies en annexe) :

Exercice

Calculer les limites des expressions suivantes lorsque l’entier n tend vers +\infty :

    \[a_{n}=\dfrac{1}{n^{p+1}}\sum_{k=1}^{n}k^{p}\qquad(p\in\mathbb{N}\text{ est donné})\]

    \[b_{n}=\sum_{k=1}^{n}\dfrac{1}{\sqrt{n^{2}+k^{2}}}\]

    \[c_{n}=\dfrac{1}{n^{2}}\left[\prod_{k=1}^{n}\left(n^{2}+k^{2}\right)\right]^{1/n}\]

Cependant, il est parfois possible de faire « l’inverse », c’est-à-dire de calculer la valeur d’une intégrale en passant par des sommes de Riemann.

Par exemple, fixons z\in\mathbb{C} tel que \left|z\right|\neq1 et posons :

(1)   \[J=\int_{0}^{2\pi}\ln\left|z-e^{it}\right|\thinspace dt\]

L’usage des nombres complexes n’est pas indispensable puisqu’en posant z=x+iy (avec x,y réels) :

    \[z-e^{it}=x-\cos\left(t\right)+i\left(y-\sin\left(t\right)\right)\]

d’où :

    \begin{eqnarray*}\left|z-e^{it}\right| & = & \sqrt{\left(x-\cos\left(t\right)\right)^{2}+\left(y-\sin\left(t\right)\right)^{2}}\\& = & \sqrt{x^{2}+y^{2}-2\left(x\cos\left(t\right)+y\sin\left(t\right)\right)+1}\end{eqnarray*}

et donc :

(2)   \[J=\dfrac{1}{2}\int_{0}^{2\pi}\ln\left(x^{2}+y^{2}-2\left(x\cos\left(t\right)+y\sin\left(t\right)\right)+1\right)\thinspace dt\]

Pour des raisons de concision, on va continuer à exploiter la forme \left(1\right), mais que l’on utilise l’une ou l’autre des formes \left(1\right) et \left(2\right), le calcul de l’intégrale ne paraît pas évident ! Pas de primitive qui saute au yeux, pas de possibilité visible de s’en sortir en intégrant par parties ou en changeant de variable … Que faire pour calculer J ?

Comme annoncé, on va s’en sortir grâce au théorème de convergence des sommes de Riemann. Posons, pour tout n\in\mathbb{N}^{\star} :

    \[S_{n}=\dfrac{2\pi}{n}\sum_{k=0}^{n-1}\ln\left|z-e^{2ik\pi/n}\right|\]

qui n’est autre que la n-ème somme de Riemann à gauche pour f.

On va trouver une expression plus « sympathique » pour S_{n} puis en déduire la valeur de {\displaystyle \lim_{n\rightarrow+\infty}S_{n}.}

Une somme de logarithmes de réels >0 étant égale au logarithme de leurs produits :

    \[S_{n}=\dfrac{2\pi}{n}\ln\left(\prod_{k=0}^{n-1}\left|z-e^{2ik\pi/n}\right|\right)\]

Or, si l’on pose :

    \[P_{n}\left(z\right)=\prod_{k=0}^{n-1}\left(z-e^{2ik\pi/n}\right)\]

il est connu que, pour tout z\in\mathbb{C} : P_{n}\left(z\right)=z^{n}-1. Ainsi :

    \[S_{n}=\dfrac{2\pi}{n}\ln\left|z^{n}-1\right|\]

A présent, on distingue deux cas, selon que le module de z est inférieur ou supérieur à 1 (rappelons que, par hypothèse, ce module est différent de 1).

1er cas : \left|z\right|<1

Comme {\displaystyle \lim_{n\rightarrow+\infty}z^{n}=0,} on voit aussitôt que {\displaystyle \lim_{n\rightarrow+\infty}S_{n}=0.}

2ème cas : \left|z\right|>1

On peut écrire, pour tout n\in\mathbb{N}^{\star} :

    \[z^{n}-1=z^{n}\left(1-\dfrac{1}{z^{n}}\right)\]

d’où :

    \[S_{n}=2\pi\ln\left|z\right|+\dfrac{2\pi}{n}\ln\left|1-\dfrac{1}{z^{n}}\right|\]

et donc :

    \[\lim_{n\rightarrow+\infty}S_{n}=2\pi\ln\left|z\right|\]

En conclusion :

    \[\fcolorbox{black}{myBlue}{$\displaystyle{\int_{0}^{2\pi}\ln\left|z-e^{it}\right|\thinspace dt=\left\{ \begin{array}{cc}0 & \text{si }\left|z\right|<1\\ \\ 2\pi\ln\left|z\right| & \text{si }\left|z\right|>1\end{array}\right.}$}\]

3 – Limite d’un maximum

Considérons, pour tout n\in\mathbb{N}^{\star}, l’application :

    \[f_{n}:\left[0,\pi\right]\rightarrow\mathbb{R},\thinspace x\mapsto\sum_{k=1}^{n}\dfrac{\sin\left(kx\right)}{k}\]

Voici à quoi ressemble son graphe pour quelques valeurs de n :

Dans chaque cas, un petit disque rouge indique le premier maximum local de f_{n}.

Notons y_{n} ce maximum et x_{n} le réel de \left[0,\pi\right] en lequel il est atteint. Une question classique consiste à calculer {\displaystyle \lim_{n\rightarrow+\infty}y_{n}.}

En faisant tendre n vers +\infty, on peut montrer (non détaillé ici) que la suite de fonctions \left(f_{n}\right)_{n\geqslant1} converge simplement vers la fonction discontinue :

    \[g:\left[0,\pi\right]\rightarrow\mathbb{R},\thinspace x\mapsto\left\{ \begin{array}{cc}0 & \text{si }x=0\\\\\dfrac{\pi-x}{2} & \text{si }0<x\leqslant\pi\end{array}\right.\]

On pourrait donc s’attendre à ce que la suite \left(y_{n}\right)_{n\geqslant1} converge vers {\displaystyle \lim_{x\rightarrow0^{+}}g\left(x\right)=\dfrac{\pi}{2}}. Mais il n’en est rien ! On peut s’en douter en traçant simultanément les graphes de g et de f_{n} pour un n « grand » :

Mais alors, si ce n’est pas \dfrac{\pi}{2}, quelle est donc la limite de la suite \left(y_{n}\right)_{n\geqslant1} ? Pour élucider cette question, nous allons faire intervenir des … sommes de Riemann (mais je parie que vous vous en doutiez).

On commence par calculer x_{n} et, pour cela, on s’intéresse au signe de la dérivée de f_{n}. D’après un calcul classique :

    \[f_{n}'\left(x\right)=\sum_{k=1}^{n}\cos\left(kx\right)=\text{Re}\left(\sum_{k=1}^{n}e^{ikx}\right)=\dfrac{\sin\left(\dfrac{nx}{2}\right)\cos\left(\left(n+1\right)\dfrac{x}{2}\right)}{\sin\left(\dfrac{x}{2}\right)}\]

et donc f_{n}'\left(x\right) s’annule et change de signe pour les valeurs suivantes de x :

  • {\displaystyle \frac{2k\pi}{n}} pour 1\leqslant k\leqslant\left\lfloor \dfrac{n}{2}\right\rfloor
  • {\displaystyle \frac{\left(2k+1\right)\pi}{n+1}} pour 0\leqslant k\leqslant\left\lfloor \dfrac{n}{2}\right\rfloor

La plus petite de ces valeurs est :

    \[x_{n}=\min\left\{ \dfrac{2\pi}{n},\thinspace\dfrac{\pi}{n+1}\right\} =\dfrac{\pi}{n+1}\]

et l’on peut vérifier qu’en ce point, f_{n} présente un maximum local puisque f_{n}'\left(x\right)>0 pour x\in\left]0,x_{n}\right[ et f_{n}'\left(x\right)<0 pour x\in\left]x_{n},\dfrac{2\pi}{n}\right[. Par conséquent :

    \[y_{n}=\sum_{k=1}^{n}\dfrac{1}{k}\sin\left(\dfrac{k\pi}{n+1}\right)\]

ou encore :

    \[y_{n}=\frac{\pi}{n+1}\,\sum_{k=0}^{n}\,\frac{\sin\left(\frac{k\pi}{n+1}\right)}{\frac{k\pi}{n+1}}\]

L’intérêt de dernière expression est qu’elle fait apparaître une somme de Riemann pour la fonction :

    \[\varphi:\left[0,\pi\right]\rightarrow\mathbb{R},\thinspace x\mapsto\left\{ \begin{array}{cc}\dfrac{\sin\left(x\right)}{x} & \text{si }0<x\leqslant\pi\\\\1 & \text{si }x=0\end{array}\right.\]

En conclusion :

    \[\fcolorbox{black}{myBlue}{$\displaystyle{\lim_{n\rightarrow+\infty}y_{n}=\int_{0}^{\pi}\dfrac{\sin\left(x\right)}{x}\thinspace dx}$}\]

Un calcul approché montre que cette limite est voisine de 1,851910^{-4} près), une valeur clairement supérieure à \dfrac{\pi}{2}\simeq1,5708.

Remarque

Ce résultat, lié à la non uniformité de la convergence de la suite \left(f_{n}\right)_{n\geqslant1} au voisinage de 0, est connu sous le nom de « phénomène de Gibbs ». Plus d’infos à ce sujet sur Wikipedia (en anglais).

4 – Comportement asymptotique d’une somme

Dans cette section, on s’intéresse à la recherche d’un équivalent, lorsque n\rightarrow+\infty, pour la somme :

    \[G_{n}=\sum_{k=1}^{n}\dfrac{n\mod k}{k}\]

La notation n\mod k désigne le reste de la division euclidienne de n par k.

Afin de se faire une idée de la situation, on peut visualiser les premiers termes de la suite \left(G_{n}\right)_{n\geqslant1}. Dans l’illustration ci-dessous, on voit les points de coordonnées \left(n,G_{n}\right) pour 1\leqslant n\leqslant200 :

Cette disposition quasi-linéaire laisse penser qu’il existerait une constante \lambda>0, sans doute voisine de \dfrac{1}{2}, telle que G_{n}\sim\lambda n.
Comme n\textrm{ mod }k=n-k\left\lfloor \frac{n}{k}\right\rfloor , on constate que :

    \[\frac{G_{n}}{n}=\frac{1}{n}\,\sum_{k=1}^{n}\,\left(\frac{n}{k}-\left\lfloor \frac{n}{k}\right\rfloor \right)\]

On reconnaît maintenant une somme de Riemann pour :

    \[u:\left]0,1\right]\rightarrow\mathbb{R},\thinspace x\mapsto\dfrac{1}{x}-\left\lfloor \dfrac{1}{x}\right\rfloor\]

qui est intégrable au sens de Riemann sur tout \left[a,1\right] (pour 0<a<1) et bornée, donc qu’on peut prolonger (en posant par exemple u\left(0\right)=0) en une application Riemann-intégrable sur \left[0,1\right]. Ainsi, le théorème s’applique et :

    \[\lim_{n\rightarrow+\infty}\dfrac{G_{n}}{n}=\int_{0}^{1}\left(\dfrac{1}{x}-\left\lfloor \dfrac{1}{x}\right\rfloor \right)\thinspace dx\]

Il reste à calculer cette intégrale. Pour cela, il est naturel de calculer I_{n}=\int_{1/n}^{1}\left(\dfrac{1}{x}-\left\lfloor \dfrac{1}{x}\right\rfloor \right)\thinspace dx (pour n\geqslant1 entier), puis de passer à la limite lorsque n tend vers +\infty. Or, pour tout n\in\mathbb{N}^{\star}, la relation de Chasles donne :

    \begin{eqnarray*}I_{n} & = & \sum_{k=1}^{n-1}\int_{1/(k+1)}^{1/k}\left(\dfrac{1}{x}-\left\lfloor \dfrac{1}{x}\right\rfloor \right)\thinspace dx\\& = & \sum_{k=1}^{n-1}\left(\ln\left(k+1\right)-\ln\left(k\right)-k\left(\dfrac{1}{k}-\dfrac{1}{k+1}\right)\right)\\& = & \ln\left(n\right)-\sum_{k=2}^{n}\dfrac{1}{k}\end{eqnarray*}

Par ailleurs, comme on l’a rappelé à la section 1 :

    \[\sum_{k=1}^{n}\dfrac{1}{k}=\ln\left(n\right)+\gamma+o\left(1\right)\]

et donc :

    \[\int_{0}^{1}\left(\dfrac{1}{x}-\left\lfloor \dfrac{1}{x}\right\rfloor \right)\thinspace dx=\lim_{n\rightarrow+\infty}I_{n}=1-\gamma\]

En conclusion :

    \[\fcolorbox{black}{myBlue}{$\displaystyle{G_{n}\sim\left(1-\gamma\right)n}$}\]

ce qui démontre la conjecture (avec \lambda=1-\gamma\simeq0,4228 à 10^{-4} près).

5 – Une inégalité pas très discrète

Etant données deux applications continues f,g:\left[a,b\right]\rightarrow\mathbb{R}, on se propose d’établir l’inégalité :

    \[\fcolorbox{black}{myBlue}{$\displaystyle{\sqrt{\left(\int_{a}^{b}\,f\left(t\right)\,dt\right)^{2}+\left(\int_{a}^{b}\,g\left(t\right)\,dt\right)^{2}}\leqslant\int_{a}^{b}\,\sqrt{f\left(t\right)^{2}+g\left(t\right)^{2}}\,dt}$}\]

Pour tout n\in\mathbb{N}^{\star} et tout k\in\left\llbracket 0,n\right\rrbracket , posons :

    \[t_{n,k}=a+\frac{k\left(b-a\right)}{n}\]

ainsi que :

    \[S_{n}=\frac{b-a}{n}\,\sum_{k=1}^{n}\,f\left(t_{n,k}\right);\qquad T_{n}=\frac{b-a}{n}\,\sum_{k=1}^{n}\,g\left(t_{n,k}\right)\]

D’après l’inégalité triangulaire pour la norme euclidienne dans \mathbb{R}^{2}, pour tout n-uplet \left(\left(x_{1},y_{1}\right),\cdots,\left(x_{n},y_{n}\right)\right) de couples de nombres réels :

    \[\left\Vert \sum_{k=1}^{n}\,\left(x_{k},y_{k}\right)\right\Vert \leqslant\sum_{k=1}^{n}\,\left\Vert \left(x_{k},y_{k}\right)\right\Vert\]

c’est-à-dire :

    \[\sqrt{\left(\sum_{k=1}^{n}\,x_{k}\right)^{2}+\left(\sum_{k=1}^{n}\,y_{k}\right)^{2}}\leqslant\sum_{k=1}^{n}\,\sqrt{x_{k}^{2}+y_{k}^{2}}\]

En remplaçant x_{k} par f\left(t_{n,k}\right) et y_{k} par g\left(t_{n,k}\right) pour chaque k\in\left\llbracket 1,n\right\rrbracket , puis en multipliant par {\displaystyle \frac{b-a}{n}}, il vient :

    \[\sqrt{\left(S_{n}\right)^{2}+\left(T_{n}\right)^{2}}\leqslant\frac{b-a}{n}\,\sum_{k=1}^{n}\,\sqrt{f\left(t_{n,k}\right)^{2}+g\left(t_{n,k}\right)^{2}}\]

Or, au membre de droite de cette dernière inégalité, on reconnaît une somme de Riemann pour t\mapsto\sqrt{f\left(t\right)^{2}+g\left(t\right)^{2}}; il suffit donc de passer à la limite pour conclure.

Ce calcul donne une illustration de la possibilité d’utiliser des sommes de Riemann pour passer du « discret » au « continu » : pour démontrer un résultat qui concerne des intégrales, on peut essayer d’établir au préalable un résultat analogue pour des sommes, puis passer à la limite. Par exemple, on peut démontrer par ce mécanisme la célèbre inégalité de Jensen pour des intégrales :

Inégalité de Jensen (version intégrale)

Soit I un intervalle ouvert et a<b. On suppose f:\left[a,b\right]\rightarrow I intégrable au sens de Riemann et u:I\rightarrow\mathbb{R} convexe. Alors :

    \[u\left(\frac{1}{b-a}\int_{a}^{b}\thinspace f\left(t\right)\thinspace dt\right)\leqslant\frac{1}{b-a}\thinspace\int_{a}^{b}\thinspace\left(u\circ f\right)\left(t\right)\thinspace dt\]

Une preuve de ce résultat fait l’objet de l’exercice n° 4 de cette fiche.

Pour revenir à la question initiale, les sommes de Riemann ne constituaient pas un passage obligé. On observe que l’inégalité :

    \[\left(\int_{a}^{b}\,f\right)^{2}+\left(\int_{a}^{b}\,g\right)^{2}\leqslant\left(\int_{a}^{b}\,\sqrt{f^{2}+g^{2}}\right)^{2}\]

peut s’écrire, en posant \Delta=\left[a,b\right]^{2} :

    \[\iint_{\Delta}\thinspace\left(f(x)f(y)+g(x)g(y)\right)\thinspace dx\thinspace dy\leqslant\iint_{\Delta}\thinspace\sqrt{f^{2}(x)+g^{2}(x)}\sqrt{f^{2}(y)+g^{2}(y)}\thinspace dx\thinspace dy\]

Or, pour voir que cette inégalité est vraie, il suffit de montrer que, pour tous réels a,\,b,\,c,\,d :

    \[ab+cd\leqslant\sqrt{a^{2}+c^{2}}\sqrt{b^{2}+d^{2}}\]

C’est évident si le membre de gauche est négatif. Et sinon, cette inégalité équivaut à :

    \[(ab+cd)^{2}\leqslant(a^{2}+c^{2})(b^{2}+d^{2})\]

qui équivaut à son tour à : (ad-bc)^{2}\geqslant0 … et qui est donc vraie !

6 – Une question posée à l’oral des ENS

Considérons une application f:\left[a,b\right]\rightarrow\mathbb{R} continue, à valeurs strictement positives.

On demande …

1°) de montrer que, pour tout n\in\mathbb{N}^{\star}, il est possible de former une subdivision \sigma_{n}=\left(x_{n,k}\right)_{0\leqslant k\leqslant n} du segment \left[a,b\right], avec comme toujours :

    \[ a=x_{0,n}<x_{1,n}<\cdots<x_{n-1,n}<x_{n,n}=b\]

mais de telle sorte que l’intégrale de f sur la « tranche numéro k » soit indépendante de k, c’est-à-dire :

    \[\forall k\in\left\llbracket 0,n-1\right\rrbracket ,\,\int_{x_{k,n}}^{x_{k+1,n}}\,f\left(t\right)\,dt=\frac{1}{n}\,\int_{a}^{b}\,f\left(t\right)\,dt\]

2°) de calculer :

    \[\lim_{n\rightarrow+\infty}\,\frac{1}{n}\,\sum_{k=1}^{n}\,f\left(x_{k,n}\right)\]

Pour le premier point, introduisons l’application F:\left[a,b\right]\rightarrow\mathbb{R},\thinspace x\mapsto\int_{a}^{x}f\left(t\right)\thinspace dt qui est continue (et même de classe C^{1}) et strictement croissante. De ce fait, F réalise une bijection de \left[a,b\right] sur \left[0,S\right], où l’on a posé :

    \[S=\int_{a}^{b}\,f\left(t\right)\,dt\]

Il existe donc, pour chaque k\in\left\llbracket 0,n\right\rrbracket , un unique x_{k,n}\in\left[a,b\right] tel que :

    \[F\left(x_{k,n}\right)=\frac{kS}{n}\]

On a alors, pour tout k\in\left\llbracket 0,n-1\right\rrbracket :

    \[\int_{x_{k,n}}^{x_{k+1,n}}\,f\left(t\right)\,dt=F\left(x_{k+1,n}\right)-F\left(x_{k,n}\right)=\frac{S}{n}\]

comme souhaité. On observe ensuite que :

    \[\frac{1}{n}\,\sum_{k=1}^{n}\,f\left(x_{k,n}\right)=\frac{1}{n}\,\sum_{k=1}^{n}\,f\circ F^{-1}\left(\frac{kS}{n}\right)\]

On reconnaît donc une somme de Riemann pour f\circ F^{-1}. Ainsi :

    \[\lim_{n\rightarrow+\infty}\frac{1}{n}\,\sum_{k=1}^{n}\,f\left(x_{k,n}\right)=\int_{0}^{1}\,f\circ F^{-1}\left(Sx\right)\,dx\]

En posant y=F^{-1}\left(Sx\right), il vient finalement :

    \[\fcolorbox{black}{myBlue}{$\displaystyle{\lim_{n\rightarrow+\infty}\,\frac{1}{n}\,\sum_{k=1}^{n}\,f\left(x_{k,n}\right)=\frac{\int_{a}^{b}\,f\left(y\right)^{2}\,dy}{\int_{a}^{b}\,f\left(y\right)\,dy}}$}\]

Annexe

Voici les réponses pour les trois limites laissées en suspens au début de la section 2 :

    \[\lim_{n\rightarrow+\infty}a_{n}=\lim_{n\rightarrow+\infty}\dfrac{1}{n}\sum_{k=1}^{n}\left(\dfrac{k}{n}\right)^{p}=\int_{0}^{1}t^{p}\thinspace dt\]

c’est-à-dire :

    \[\boxed{\lim_{n\rightarrow+\infty}a_{n}=\dfrac{1}{p+1}}\]

    \[\lim_{n\rightarrow+\infty}b_{n}=\lim_{n\rightarrow+\infty}\dfrac{1}{n}\sum_{k=1}^{n}\dfrac{1}{\sqrt{1+\left(\dfrac{k}{n}\right)^{2}}}=\int_{0}^{1}\dfrac{1}{\sqrt{1+t^{2}}}\thinspace dt\]

et comme une primitive de t\mapsto\dfrac{1}{\sqrt{1+t^{2}}} est t\mapsto\ln\left(t+\sqrt{t^{2}+1}\right), il vient :

    \[\boxed{\lim_{n\rightarrow+\infty}b_{n}=\ln\left(1+\sqrt{2}\right)}\]

Enfin :

    \[c_{n}=\left(\dfrac{1}{n^{2n}}\prod_{k=1}^{n}\left(n^{2}+k^{2}\right)\right)^{1/n}=\left(\prod_{k=1}^{n}\left(1+\dfrac{k^{2}}{n^{2}}\right)\right)^{1/n}\]

et donc :

    \[\ln\left(c_{n}\right)=\dfrac{1}{n}\sum_{k=1}^{n}\ln\left(1+\dfrac{k^{2}}{n^{2}}\right)\underset{n\rightarrow+\infty}{\longrightarrow}\int_{0}^{1}\ln\left(1+t^{2}\right)\thinspace dt\]

En intégrant par parties, on trouve :

    \[\int_{0}^{1}\ln\left(1+t^{2}\right)\thinspace dt=\dfrac{\pi}{2}+\ln\left(2\right)-2\]

et donc (par continuité de l’exponentielle) :

    \[\boxed{\lim_{n\rightarrow+\infty}c_{n}=2\thinspace\exp\left(\dfrac{\pi}{2}-2\right)}\]

Si cet article vous a intéressé, merci de laisser un petit commentaire 🙂

Partager cet article

Cet article a 2 commentaires

  1. Joseph Cesana

    seems very interesting, scanned through it, will study it. Thank you!

  2. errard

    de errard.serge
    tres bonne idée;bien construit

Laisser un commentaire