Solutions détaillées de neuf exercices sur les calculs de sommes (fiche 03).
Cliquer ici pour accéder aux énoncés.

icone-math-OS-Exos
exercice 1 facile

Considérons une suite arithmétique \left(u_{n}\right)_{n\geqslant0} de raison r.

Pour p,q\in\mathbb{N} tels que p\leqslant q, notons :

    \[ S_{p,q}=\sum_{k=p}^{q}u_{k}\]

Alors :

    \[2\thinspace S_{p,q}=\sum_{k=p}^{q}\left(u_{k}+u_{q+p-k}\right)\]

Or, pour tout k\in\llbracket p,q\rrbracket :

    \begin{eqnarray*}u_{k}+u_{q+p-k} & = & \left(u_{p}+\left(k-p\right)r\right)+\left(u_{q}-\left(k-p\right)r\right)\\& = & u_{p}+u_{q}\end{eqnarray*}

et donc :

    \[2\thinspace S_{p,q}=\left(q-p+1\right)\left(u_{p}+u_{q}\right)\]

d’où la conclusion. Il est conseillé de mémoriser ce résultat, sous la forme :

Proposition

La valeur d’une somme arithmétique s’obtient en effectuant l’opération suivante :

    \[\frac{\left(\left(\text{premier terme}\right)+\left(\text{dernier terme}\right)\right)\times\left(\text{nb de termes}\right)}{2}\]

exercice 2 facile

L’application

    \[f:\left[0,+\infty\right[\rightarrow\mathbb{R},\thinspace t\mapsto\frac{t}{1+t}\]

est croissante, puisque sa dérivée est donnée par :

    \[\forall t\geqslant0,\thinspace f'\left(t\right)=\frac{1}{\left(1+t\right)^{2}}>0\]

Par ailleurs, on sait que \ln\left(t\right)\leqslant t pour tout t>0. Par conséquent :

    \[\forall k\geqslant2,\thinspace f\left(\ln\left(k\right)\right)\leqslant f\left(k\right)\]

c’est-à-dire :

    \[\forall k\geqslant2,\thinspace\frac{\ln\left(k\right)}{1+\ln\left(k\right)}\leqslant\frac{k}{1+k}\]

Il reste à multiplier membre à membre ces inégalités (entre réels positifs) pour k=2 à n :

    \[\prod_{k=2}^{n}\frac{\ln\left(k\right)}{1+\ln\left(k\right)}\leqslant\prod_{k=2}^{n}\frac{k}{1+k}\]

et à observer que ce dernier produit se télescope. Au final, pour tout entier n\geqslant2 :

    \[0\leqslant\prod_{k=2}^{n}\frac{\ln\left(k\right)}{1+\ln\left(k\right)}\leqslant\frac{2}{1+n}\]

Il en résulte que :

    \[\boxed{\lim_{n\rightarrow\infty}\prod_{k=2}^{n}\frac{\ln\left(k\right)}{1+\ln\left(k\right)}=0}\]

exercice 3 facile

Le résultat établi dans cet exercice constitue une célèbre condition suffisante de convergence pour une série numérique, connue sous le nom de règle d’Abel.

Niels Henrik ABEL (1802 – 1829)

Rappelons les notations. Etant donnée une suite \left(z_{k}\right)_{k\geqslant1} de nombres complexes, on pose :

    \[ S_{0}=0\qquad\text{et}\qquad\forall n\geqslant1,\thinspace S_{n}=\sum_{k=1}^{n}z_{k}\]

On observe que, pour tout k\geqslant1 :

    \[z_{k}=S_{k}-S_{k-1}\]

Par conséquent, pour tout n\geqslant1 :

    \begin{eqnarray*}\sum_{k=1}^{n}t_{k}z_{k} & = & \sum_{k=1}^{n}t_{k}\left(S_{k}-S_{k-1}\right)\\& = & \sum_{k=1}^{n}t_{k}S_{k}-\sum_{k=1}^{n}t_{k}S_{k-1}\\& = & \sum_{k=1}^{n}t_{k}S_{k}-\sum_{k=0}^{n-1}t_{k+1}S_{k}\\& = & t_{n}S_{n}+\sum_{k=1}^{n-1}\left(t_{k}-t_{k+1}\right)S_{k} \end{eqnarray*}

Noter que le terme t_{1}S_{0} n’a pas été oublié dans cette dernière étape : il est nul.

L’égalité :

    \[\boxed{\sum_{k=1}^{n}t_{k}z_{k}=t_{n}S_{n}+\sum_{k=1}^{n-1}\left(t_{k}-t_{k+1}\right)S_{k}}\]

constitue ce qu’on appelle la transformation d’Abel.

Remarque

Il s’agit, en quelque sorte, dune formule d’intégration par parties discrète.

Supposons la suite S bornée et soit M un majorant de celle-ci :

    \[\forall k\geqslant1,\thinspace\left|S_{k}\right|\leqslant M\]

La série de terme général \left(t_{k}-t_{k+1}\right)S_{k} est absolument convergente (donc convergente) car, d’une part, pour tout k\geqslant1 :

    \[\left|\left(t_{k}-t_{k+1}\right)S_{k}\right|\leqslant M\left(t_{k}-t_{k+1}\right)\]

et d’autre part, la série \sum_{k\geqslant1}\left(t_{k}-t_{k+1}\right) converge (et admet pour somme t_{1}).

Il en résulte que la série de terme général t_{k}z_{k} converge et admet pour somme :

    \[\boxed{\sum_{k=1}^{\infty}t_{k}z_{k}=\sum_{k=1}^{\infty}\left(t_{k}-t_{k+1}\right)S_{k}}\]

On démontré la :

Règle d’Abel

Si t est une suite réelle décroissante de limite nulle et si z est une suite complexe dont la suite des sommes partielles est bornée, alors la série :

    \[\sum_{k\geqslant1}t_kz_k\]

est convergente.

Posons, pour tout n\in\mathbb{N}^{\star} :

    \[G_{n}=\sum_{k=1}^{n}e^{ik\theta}\]

Il s’agit d’une somme géométrique de raison e^{i\theta}, car e^{ik\theta}=\left(e^{i\theta}\right)^{k} pour tout entier k d’après la formule de Moivre. Comme par hypothèse \theta\in\mathbb{R}-2\pi\mathbb{Z}, alors e^{i\theta}\neq1 et donc :

    \[G_{n}=\frac{e^{i\theta}\left(1-e^{in\theta}\right)}{1-e^{i\theta}}\]

que l’on peut encore écrire :

    \[G_{n}=\frac{e^{i\theta}\thinspace e^{in\theta/2}}{e^{i\theta/2}}\:\frac{e^{-in\theta/2}-e^{in\theta/2}}{e^{i\theta/2}-e^{-i\theta/2}}\]

c’est-à-dire, d’après la formule d’Euler pour le sinus :

    \[G_{n}=e^{i\left(n+1\right)\theta/2}\:\frac{\sin\left(\frac{n\theta}{2}\right)}{\sin\left(\frac{\theta}{2}\right)}\]

En récupérant les parties imaginaires de chaque membre, on obtient :

(\heartsuit)   \[\boxed{B_{n}=\frac{\sin\left(\frac{n\theta}{2}\right)\thinspace\sin\left(\frac{\left(n+1\right)\theta}{2}\right)}{\sin\left(\frac{\theta}{2}\right)}}\]

Comme suggéré par l’énoncé, on peut aussi calculer directement :

    \[\sin\left(\frac{\theta}{2}\right)B_{n}=\sum_{k=1}^{n}\sin\left(k\theta\right)\sin\left(\frac{\theta}{2}\right)\]

or, on peut linéariser chaque terme :

    \[\sin\left(k\theta\right)\sin\left(\frac{\theta}{2}\right)=\frac{1}{2}\left[\cos\left(\left(k-\frac{1}{2}\right)\theta\right)-\cos\left(\left(k+\frac{1}{2}\right)\theta\right)\right]\]

ce qui donne une sommation télescopique :

    \begin{eqnarray*} \sin\left(\frac{\theta}{2}\right)B_{n} & = & \frac{1}{2}\sum_{k=1}^{n}\left[\cos\left(\left(k-\frac{1}{2}\right)\theta\right)-\cos\left(\left(k+\frac{1}{2}\right)\theta\right)\right]\\ & = & \frac{1}{2}\left[\cos\left(\frac{\theta}{2}\right)-\cos\left(\left(n+\frac{1}{2}\right)\theta\right)\right]\end{eqnarray*}

et donc, vu que \sin\left(\frac{\theta}{2}\right)\neq0 :

(\diamondsuit)   \[\boxed{B_{n}=\frac{\cos\left(\frac{\theta}{2}\right)-\cos\left(\left(n+\frac{1}{2}\right)\theta\right)}{2\sin\left(\frac{\theta}{2}\right)}}\]

En apparence, les résultats obtenus par les deux méthodes différent … mais en apparence seulement, car on sait bien que pour tout \left(p,q\right)\in\mathbb{R}^{2} :

    \[\cos\left(p\right)-\cos\left(q\right)=-2\sin\left(\frac{p+q}{2}\right)\sin\left(\frac{p-q}{2}\right)\]

Les formules \left(\heartsuit\right) et \left(\diamondsuit\right) nous racontent donc la même histoire …

Considérons un ensemble E de cardinal 2n et deux parties A,B de E, disjointes et de même cardinal n.

Se donner une partie de E de cardinal n-1 revient à se donner, pour un certain k\in\left\llbracket 1,n\right\rrbracket :

  • une partie X de A de cardinal k-1
  • une partie Y de B de cardinal n-k

La partie X peut être choisie de \binom{n}{k-1} façons. Et pour chaque tel choix, la partie Y peut être choisie de \binom{n}{n-k}=\binom{n}{k} façons, ce qui donne un total de :

    \[\sum_{k=1}^{n}\binom{n}{k-1}\binom{n}{k}\quad\text{possibilités}\]

Bien entendu, le nombre parties de E de cardinal n-1 est \binom{2n}{n-1}, par définition !

Tout ceci prouve que :

    \[\boxed{\sum_{k=1}^{n}\binom{n}{k-1}\binom{n}{k}=\binom{2n}{n-1}}\]

Posons :

    \[\boxed{M\,\overline{M}=\left[x_{p,q}\right]_{1\leqslant p,q\leqslant n}}\]

Vu que le conjugué d’un nombre complexe de module 1 coïncide avec son inverse :

    \begin{eqnarray*}x_{p,q} & = & \sum_{k=1}^{n}\,\omega^{\left(p-1\right)\left(k-1\right)}\,\overline{\omega^{\left(k-1\right)\left(q-1\right)}}\\& = & \sum_{k=1}^{n}\,\left(\omega^{p-q}\right)^{k-1}\end{eqnarray*}

On reconnaît une somme géométrique de raison :

    \[\omega^{p-q}=e^{2i\left(p-q\right)\pi/n}\]

et l’on sait que, pour tout z\in\mathbb{U}_{n}-\left\{ 1\right\} :

    \[ \sum_{k=1}^{n}\,z^{k-1}=\frac{1-z^{n}}{1-z}=0\]

Or :

    \[\omega^{p-q}=1\Leftrightarrow p-q\in n\mathbb{Z}\cap\llbracket-n+1,n-1\rrbracket =\left\{0\right\}\]

On voit ainsi que :

    \[x_{p,q}=\left\{\begin{array}{ccc}n & \textrm{si} & p=q\\\\0 & \textrm{si} & p\neq q\end{array}\right.\]

Autrement dit :

    \[\boxed{M\,\overline{M}=n\,I_{n}}\]

ce qui montre au passage que M\in GL_{n}\left(\mathbb{C}\right) et que {\displaystyle M^{-1}=\frac{1}{n}\,\overline{M}}.

Posons :

    \[\boxed{M^{2}=\left[y_{p,q}\right]_{1\leqslant p,q\leqslant n}}\]

Alors :

    \begin{eqnarray*}y_{p,q} & = & \sum_{k=1}^{n}\,\omega^{\left(p-1\right)\left(k-1\right)}\,\omega^{\left(k-1\right)\left(q-1\right)}\\& = & \sum_{k=1}^{n}\,\left(\omega^{p+q-2}\right)^{n-1}\end{eqnarray*}

et donc :

    \[y_{p,q}=\left\{ \begin{array}{ccc}n & \textrm{si} & p+q-2\not\equiv0\pmod{n}\\\\0 & \textrm{sinon}\end{array}\right.\]

Ainsi :

    \[\boxed{M^{2}=n\,\left[\begin{array}{ccccc}1 & 0 & \cdots & \cdots & 0\\0 & 0 & \cdots & 0 & 1\\\vdots & \vdots & \iddots & \iddots & 0\\\vdots & 0 & \iddots & \iddots & \vdots\\0 & 1 & 0 & \cdots & 0\end{array}\right]}\]

On observe que :

    \begin{eqnarray*}\frac{n^{2}}{k^{2}\left(n-k\right)^{2}} & = & \frac{n^{2}-k^{2}}{k^{2}\left(n-k\right)^{2}}+\frac{1}{\left(n-k\right)^{2}}\\& = & \frac{n+k}{k^{2}\left(n-k\right)}+\frac{1}{\left(n-k\right)^{2}}\end{eqnarray*}

et donc, en remarquant que n+k=\left(n-k\right)+2k :

    \[\frac{n^{2}}{k^{2}\left(n-k\right)^{2}}=\frac{1}{k^{2}}+\frac{1}{\left(n-k\right)^{2}}+\frac{2}{k\left(n-k\right)}\]

Ainsi :

    \[u_{n}=\frac{2}{n^{2}}\left[\sum_{k=1}^{n-1}\frac{1}{k^{2}}+\sum_{k=1}^{n-1}\frac{1}{k\left(n-k\right)}\right]\]

Or :

    \begin{eqnarray*}\sum_{k=1}^{n-1}\frac{1}{k\left(n-k\right)} & = & \frac{1}{n}\sum_{k=1}^{n-1}\left(\frac{1}{k}+\frac{1}{n-k}\right)\\& = & \frac{2}{n}\sum_{k=1}^{n-1}\frac{1}{k}\\& \sim & \frac{2\ln\left(n\right)}{n}\end{eqnarray*}

Cette dernière expression tend vers 0; elle est donc négligeable devant {\displaystyle \sum_{k=1}^{n-1}\frac{1}{k^{2}}} qui tend (résultat classique) vers {\displaystyle \frac{\pi^{2}}{6}}. Par conséquent :

    \[\boxed{u_{n}\sim\frac{\pi^{2}}{3n^{2}}}\]

et la convergence de la série proposée en résulte.

Autre point de vue … Si vous savez ce qu’est le produit de Cauchy de deux séries numériques, vous constaterez que la série \displaystyle{\sum_{n\ge2}\left(\sum_{k=1}^{n-1}\frac{1}{k^2(n-k)^2}\right)} est le carré de Cauchy de la série \displaystyle{\sum_{n\ge0}a_n}, avec :

    \[a_n=\left\{\begin{array}{ccc}{0 & \text{si }n=0\\ \frac{1}{n^2} & \text{sinon}}\end{array}\right.\]

Or, on sait (voir cet article) que le produit de Cauchy de deux séries convergentes à termes positives (et, plus généralement, de deux séries absolument convergentes) converge et que sa somme est le produit des sommes. Ainsi, la série proposée converge et :

    \[\sum_{n=2}^\infty\sum_{k=1}^{n-1}\frac{1}{k^2(n-k)^2}=\left(\sum_{n=1}^\infty\frac{1}{n^2}\right)^2=\frac{\pi^4}{36}\]

La formule d’Euler pour le sinus donne, pour tout k\in\left\llbracket 1,n-1\right\rrbracket :

    \begin{eqnarray*}\sin\left(\frac{k\pi}{n}\right) & = & \frac{e^{ik\pi/n}-e^{-ik\pi/n}}{2i}\\& = & \frac{1}{2i}\,e^{-ik\pi/n}\left(e^{2ik\pi/n}-1\right)\end{eqnarray*}

donc :

    \begin{eqnarray*}p_{n} & = & \frac{1}{\left(2i\right)^{n-1}}\,\prod_{k=1}^{n-1}\,e^{-ik\pi/n}\left(e^{2ik\pi/n}-1\right)\\& = & \frac{\left(-1\right)^{n-1}}{\left(2i\right)^{n-1}}\,\left(\prod_{k=1}^{n-1}\,e^{-ik\pi/n}\right)\:\prod_{k=1}^{n-1}\left(1-e^{2ik\pi/n}\right) \end{eqnarray*}

Or :

    \begin{eqnarray*}\prod_{k=1}^{n-1}\,e^{-ik\pi/n} & = & \exp\left(-\frac{i\pi}{n}\,\sum_{k=1}^{n-1}\,k\right)\\& = & e^{-i\pi\left(n-1\right)/2}\\ & = & \left(-i\right)^{n-1} \end{eqnarray*}

Ainsi :

    \[\boxed{p_{n}=\frac{1}{2^{n-1}}\,\prod_{k=1}^{n-1}\,\left(1-e^{2ik\pi/n}\right)}\]

A présent, une bonne idée consiste à faire intervenir le polynôme :

    \[Q_{n}=\prod_{k=1}^{n-1}\,\left(X-e^{2ik\pi/n}\right)\]

On sait d’une part que :

    \[X^{n}-1=\prod_{k=0}^{n-1}\,\left(X-e^{2ik\pi/n}\right)=\left(X-1\right)\,Q_{n}\]

et, d’autre part, que :

    \[X^{n}-1=\left(X-1\right)\sum_{k=0}^{n-1}\,X^{k}\]

Il en résulte (par intégrité de l’anneau \mathbb{C}\left[X\right]) que {\displaystyle Q_{n}=\sum_{k=0}^{n-1}\,X^{k}} et donc que :

    \[p_{n}=\frac{1}{2^{n-1}}\,Q_{n}\left(1\right)\]

d’où finalement :

    \[\boxed{p_{n}=\frac{n}{2^{n-1}}}\]

Passons au calcul de l’intégrale impropre :

    \[I=\int_{0}^{\pi/2}\ln\left(\sin\left(t\right)\right)\thinspace dt\]

Nous allons admettre et utiliser le résultat suivant :

Proposition

Si f:\left]0,\pi\right[\rightarrow\mathbb{R} est continue et si l’intégrale impropre \int_{0}^{\pi}f\left(x\right)\thinspace dx converge, alors :

    \[\lim_{n\rightarrow\infty}\,\frac{\pi}{n}\sum_{k=1}^{n-1}\,f\left(\frac{k\pi}{n}\right)=\int_{0}^{\pi}f\left(x\right)\thinspace dx\]

L’application f:\left]0,\pi\right[\rightarrow\mathbb{R},\thinspace t\mapsto\ln\left(\sin\left(t\right)\right) est continue. Au voisinage de 0 :

    \[f\left(t\right)\underset{{\scriptstyle 0}}{\sim}\ln\left(t\right)\]

or on sait que t\mapsto\ln\left(t\right) est intégrable et de signe fixe sur \left]0,1\right]. Il s’ensuit que f est intégrable sur \left]0,\frac{\pi}{2}\right] et un argument de symétrie montre son intégrabilité sur \left[\frac{\pi}{2},\pi\right[. En outre, toujours en raison de la symétrie par rapport à \pi/2 :

    \begin{eqnarray*} \int_{0}^{\pi/2}\ln\left(\sin\left(t\right)\right)\thinspace dt & = & \frac{1}{2}\int_{0}^{\pi}\ln\left(\sin\left(t\right)\right)\thinspace dt\\ & = & \frac{1}{2}\lim_{n\rightarrow\infty}\frac{\pi}{n}\sum_{k=1}^{n-1}\ln\left(\sin\left(\frac{k\pi}{n}\right)\right)\\ & = & \frac{1}{2}\lim_{n\rightarrow\infty}\frac{\pi}{2}\ln\left(p_{n}\right)\end{eqnarray*}

Soit finalement :

    \[\boxed{\int_{0}^{\pi/2}\ln\left(\sin\left(t\right)\right)\thinspace dt=-\frac{\pi}{2}\ln\left(2\right)}\]

Remarque

La résolution de cette question fait aussi l’objet d’une vidéo.

exercice 9 difficile

Procédons par récurrence. Pour n=1, la formule est vraie.

Supposons-la vraie au rang n-1, pour un certain n\geqslant2.

Dérivons, par rapport à x, chaque membre de l’égalité à prouver.

D’une part :

    \[\frac{d}{dx}\left[\left(x+y\right)^{n}\right]=n\left(x+y\right)^{n-1}\]

et d’autre part :

    \begin{eqnarray*}& & \frac{d}{dx}\left[x^{n}+\sum_{k=1}^{n}\binom{n}{k}y\left(y-k\right)^{k-1}\left(x+k\right)^{n-k}\right]\\& = & nx^{n-1}+\sum_{k=1}^{n-1}\left(n-k\right)\binom{n}{k}y\left(y-k\right)^{k-1}\left(x+k\right)^{n-k-1}\\& \underset{\star}{=} & n\left(x^{n-1}+\sum_{k=1}^{n-1}\binom{n-1}{k}y\left(y-k\right)^{k-1}\left(x+k\right)^{\left(n-1\right)-k}\right)\end{eqnarray*}

L’égalité \star découle de la symétrie des coefficients binomiaux et de la formule du pion :

    \[\left(n-k\right)\binom{n}{k}=\left(n-k\right)\binom{n}{n-k}=n\binom{n-1}{n-k-1}=n\binom{n-1}{k}\]

Bref, d’après l’hypothèse de récurrence, les dérivées sont égales.

Il suffit donc de prouver que les deux expressions qu’on a dérivées coïncident pour une certaine valeur de x. On prend x=-y :

    \begin{eqnarray*}& & \left(-y\right)^{n}+\sum_{k=1}^{n}\binom{n}{k}y\left(y-k\right)^{k-1}\left(-y+k\right)^{n-k}\\& = & \left(-y\right)^{n}+\sum_{k=1}^{n}\left(-1\right)^{n-k}\binom{n}{k}y\left(y-k\right)^{n-1}\\& = & \left(-1\right)^{n}y\sum_{k=0}^{n}\left(-1\right)^{k}\binom{n}{k}\left(y-k\right)^{n-1} \end{eqnarray*}

Or, en développant \left(y-k\right)^{n-1} puis en intervertissant les sommes :

    \begin{eqnarray*} & & \sum_{k=0}^{n}\left(-1\right)^{k}\binom{n}{k}\left(y-k\right)^{n-1}\\& = & \sum_{k=0}^{n}\left[\left(-1\right)^{k}\binom{n}{k}\sum_{j=0}^{n-1}\binom{n-1}{j}\left(-k\right)^{j}y^{n-1-j}\right]\\& = & \sum_{j=0}^{n-1}\left[\sum_{k=0}^{n}\left(-1\right)^{k}\binom{n}{k}k^{j}\right]\left(-1\right)^{j}\binom{n-1}{j}y^{n-1-j}\end{eqnarray*}

Or, il se trouve que :

    \[\forall n\in\mathbb{N}^{\star},\thinspace\forall j\in\left\llbracket 0,n-1\right\rrbracket ,\thinspace\sum_{k=0}^{n}\left(-1\right)^{k}\binom{n}{k}k^{j}=0\]

ce qui permet de conclure.


Si un point n’est pas clair ou vous paraît insuffisamment détaillé, n’hésitez pas à poster un commentaire ou à me joindre via le formulaire de contact.

Partager cet article

Laisser un commentaire