Séries Numériques – Partie 2

Dans la première partie de cette introduction à l’étude des séries, sont apparues quelques généralités, ainsi que les résultats de base concernant les séries à termes positifs (SATP).
On a notamment vu que l’étude d’une SATP est facilitée par la croissance de la suite des sommes partielles. Ce simple fait est au cœur du principe de comparaison, qui admet lui-même deux principaux
corollaires :

Lorsque le terme général est de signe constant APCR, l’étude d’une série se ramène aussitôt à celle d’une SATP.

Il n’en va plus de même lorsque le signe du terme général fluctue indéfiniment ou, plus généralement, pour une série à termes complexes.

Cette étude générale est abordée dans le présent texte. Les principaux outils (convergence absolue, théorème des séries alternées, développement asymptotique du terme général et autres …) sont établis de façon détaillée et illustrés d’exemples.

1 – Opérations sur les séries convergentes

Que se passe-t-il si l’on combine entre elles des séries convergentes ?

Avant de répondre à cette question, il convient de préciser ce qu’on entend par « combiner » …

Proposition

Soient \sum_{n\geqslant0}a_{n} et \sum_{n\geqslant0}b_{n} deux séries complexes convergentes et soit \lambda\in\mathbb{C}.

Alors la série \sum_{n\geqslant0}\left(\lambda a_{n}+b_{n}\right) est convergente et admet pour somme :

    \[\sum_{n=0}^{\infty}\left(\lambda a_{n}+b_{n}\right)=\lambda\thinspace\left(\sum_{n=0}^{\infty}a_{n}\right)+\sum_{n=0}^{\infty}b_{n}\]

Preuve (cliquer pour déplier / replier)

On revient à la définition de la convergence d’une série, à savoir la convergence de la suite des sommes partielles. Si l’on note, pour tout n\in\mathbb{N} :

    \[A_{n}=\sum_{k=0}^{n}a_{k}\qquad\text{et}\qquad B_{n}=\sum_{k=0}^{n}b_{k}\]

ainsi que :

    \[S_{n}=\sum_{k=0}^{n}\left(\lambda\thinspace a_{k}+b_{k}\right)\]

alors (par commutativité de l’addition et distributivité de la multiplication sur l’addition) :

    \[S_{n}=\lambda\thinspace A_{n}+B_{n}\]

On invoque alors une propriété générale des suites convergentes. En notant :

    \[\alpha=\sum_{k=0}^{\infty}a_{k}\qquad\text{et}\qquad\beta=\sum_{k=0}^{\infty}b_{k}\]

on voit que la suite S converge vers \lambda\alpha+\beta.

En particulier, la somme de deux séries convergentes converge vers la somme des sommes (!).

Attention, ceci ne fonctionne pas dans l’autre sens… On peut obtenir une série convergente en additionnant deux séries divergentes (il suffit de considérer une série divergente et la série opposée).

Quant à la somme de deux séries de natures contraires (l’une convergente et l’autre divergente), elle est fatalement divergente (sauriez-vous justifier cela ? la réponse est en annexe).

Autre opération importante : le produit deux séries \sum_{n\geqslant0}a_{n} et \sum_{n\geqslant0}b_{n}.

Il ne s’agit pas du produit « naïf », qu’on définirait par \sum_{n\geqslant0}a_{n}b_{n}. Cette notion n’a d’ailleurs pas beaucoup d’intérêt, car si les trois séries \sum_{n\geqslant0}a_{n}, \sum_{n\geqslant0}b_{n} et \sum_{n\geqslant0}a_{n}b_{n} sont convergentes, on n’a pas de relation spéciale entre leurs sommes. En particulier, l’égalité :

    \[\sum_{n=0}^{\infty}a_{n}b_{n}=\left(\sum_{n=0}^{\infty}a_{n}\right)\left(\sum_{n=0}^{\infty}b_{n}\right)\]

est en général FAUSSE.

La « bonne » notion est la suivante :

Définition

Le produit de Cauchy des séries complexes \sum_{n\geqslant0}a_{n} et \sum_{n\geqslant0}b_{n} est la série de terme général :

    \[c_{n}=\sum_{k=0}^{n}a_{k}b_{n-k}\]

On en reparle à la section 7 où l’on verra, entre autres, que si les trois séries \sum_{n\geqslant0}a_{n}, \sum_{n\geqslant0}b_{n} et \sum_{n\geqslant0}c_{n} sont convergentes, alors :

    \[\left(\sum_{n=0}^{\infty}a_{n}\right)\left(\sum_{n=0}^{\infty}b_{n}\right)=\sum_{n=0}^{\infty}c_{n}\]

2 – Convergence absolue

Vous préférez visonner une vidéo de 15′ environ sur ce thème ? C’est ici :

Définition

Une série complexe \sum_{n\geqslant0}z_{n} est dite absolument convergente lorsque la série à termes positifs \displaystyle{\sum_{n\geqslant0}\left|z_{n}\right|} converge.

Cette définition pourrait sembler un peu vaine sans le résultat spectaculaire suivant :

Théorème

Toute série complexe, absolument convergente, est convergente.

On en trouvera, dans cet article, une preuve détaillée pour les séries à termes réels. Ajoutons le peu qui manque pour le cas d’une série complexe.

Considérons une série \sum_{n\geqslant0}z_{n} telle que la série \sum_{n\geqslant0}\left|z_{n}\right| soit convergente. Les inégalités :

    \[\left|\text{Re}\left(z_{n}\right)\right|\leqslant\left|z_{n}\right|\qquad\text{et}\qquad\left|\text{Im}\left(z_{n}\right)\right|\leqslant\left|z_{n}\right|\]

valables pour tout n\in\mathbb{N}, montrent que les séries \sum_{n\geqslant0}\text{Re}\left(z_{n}\right) et \sum_{n\geqslant0}\text{Im}\left(z_{n}\right) sont absolument convergentes. Elles sont donc convergentes tout court, d’après l’étude dans le champ réel.

Ensuite, la série \sum_{n\geqslant0}z_{n} apparaît comme combinaison linéaire de deux séries convergentes, puisque pour tout n\in\mathbb{N} :

    \[z_{n}=\text{Re}\left(z_{n}\right)+i\thinspace\text{Im}\left(z_{n}\right)\]

On conclut avec la proposition donnée au début de la section 1.

Exemple 1

Pour tout s>1, la série :

    \[\sum_{n\geqslant1}\frac{\cos\left(n\right)}{n^{s}}\]

est convergente, car elle converge absolument. En effet :

    \[\forall n\in\mathbb{N}^{\star},\thinspace\left|\frac{\cos\left(n\right)}{n^{s}}\right|\leqslant\frac{1}{n^{s}}\]

et la série de Riemann {\displaystyle \sum_{n\geqslant1}\frac{1}{n^{s}}} converge, ce qui permet de conclure avec le principe de comparaison.

Exemple 2

La série

    \[\sum_{n\geqslant1}\frac{\left(-1\right)^{n-1}}{n}\]

est officiellement appelée série harmonique alternée.

Elle n’est pas absolument convergente, puisqu’en prenant son terme général en valeur absolue, on tombe sur la série harmonique, qui diverge.

Elle est cependant convergente et l’on peut même se payer le luxe d’en calculer la somme.

Pour tout n\in\mathbb{N}^{\star}, écrivons la n-ème somme partielle sous forme intégrale :

    \begin{eqnarray*}\sum_{k=1}^{n}\frac{\left(-1\right)^{k-1}}{k} & = & \sum_{k=1}^{n}\left(-1\right)^{k-1}\int_{0}^{1}t^{k-1}\thinspace dt\\& = & \int_{0}^{1}\sum_{k=1}^{n}\left(-t\right)^{k-1}\thinspace dt\\& = & \int_{0}^{1}\frac{1-\left(-t\right)^{n}}{1+t}\thinspace dt\\& = & \ln\left(2\right)+\left(-1\right)^{n+1}J_{n}\end{eqnarray*}

où l’on a posé :

    \[J_{n}=\int_{0}^{1}\frac{t^{n}}{1+t}\thinspace dt\]

L’encadrement :

    \[0\leqslant J_{n}\leqslant\int_{0}^{1}\frac{t^{n}}{1+t}\thinspace dt\leqslant\int_{0}^{1}t^{n}\thinspace dt=\frac{1}{n+1}\]

montre que la suite \left(J_{n}\right)_{n\geqslant1} converge vers 0. Il en résulte que la série harmonique alternée converge et que sa somme est :

    \[\fcolorbox{black}{myBlue}{$\displaystyle{\sum_{n=1}^{\infty}\frac{\left(-1\right)^{n-1}}{n}=\ln\left(2\right)}$}\]

L’exemple qui précède débouche naturellement sur la …

Définition

On qualifie de semi-convergente une série convergente qui n’est pas absolument convergente.

La série harmonique alternée est donc semi-convergente. On verra d’autres exemples à la section suivante, ainsi qu’à la section 5.

3 – Séries alternées

Adoptons la définition suivante (la terminologie varie un peu selon les sources) :

Définition

Une série réelle \sum_{n\geqslant0}u_{n} est dite alternée si son terme général est de signe alterné, ce qui revient à dire que le signe de \left(-1\right)^{n}u_{n} est indépendant de n.

Pour ce type de séries, le résultat principal est le suivant :

Théorème des séries alternées (TSA)

Si \alpha est une suite réelle qui converge vers 0 en décroissant, alors la série alternée

    \[\sum_{n\geqslant0}\left(-1\right)^{n}\alpha_{n}\]

converge. En outre, son reste est « en valeur absolue, majoré par le premier terme négligé », ce qui signifie que :

    \[\forall n\in\mathbb{N},\thinspace\left|\sum_{k=n}^{\infty}\left(-1\right)^{k}\alpha_{k}\right|\leqslant\alpha_{n}\]

Preuve (cliquer pour déplier / replier)

On va montrer que la suite S des sommes partielles est convergente, en prouvant que les suites extraites \left(S_{2n}\right)_{n\geqslant0} et \left(S_{2n+1}\right)_{n\geqslant0} convergent vers une même limite.

Posons donc, pour tout n\in\mathbb{N} :

    \[ S_{n}=\sum_{k=0}^{n}\left(-1\right)^{k}\alpha_{k}\]

D’une part :

    \[S_{2n+2}-S_{2n}=\alpha_{2n+2}-\alpha_{2n+1}\leqslant0\]

donc la suite \left(S_{2n}\right)_{n\geqslant0} décroît.

D’autre part :

    \[S_{2n+3}-S_{2n+1}=-\alpha_{2n+3}+\alpha_{2n+2}\geqslant0\]

donc la suite \left(S_{2n+1}\right)_{n\geqslant0} est croissante. En outre :

    \[S_{2n}-S_{2n+1}=\alpha_{2n+1}\underset{n\rightarrow\infty}{\rightarrow}0\]

ce qui prouve que les suites \left(S_{2n}\right)_{n\geqslant0} et \left(S_{2n+1}\right)_{n\geqslant0} sont adjacentes et convergent donc vers une même limite.

La convergence de la série {\displaystyle \sum_{n\geqslant0}\left(-1\right)^{n}\alpha_{n}} est ainsi établie. Notons \sigma sa somme et passons à la majoration du reste.

Posons, pour tout n\in\mathbb{N}:

    \[R_{n}=\sum_{k=n}^{\infty}\left(-1\right)^{k}\alpha_{k}\]

Vus les sens de variation des suites \left(S_{2n}\right)_{n\geqslant0} et \left(S_{2n+1}\right)_{n\geqslant0}, on a pour tout n\geqslant1 :

    \[ S_{2n-1}\leqslant S_{2n+1}\leqslant\sigma\leqslant S_{2n}\]

d’où :

    \[0\leqslant -R_{2n+1}=S_{2n}-\sigma\leqslant S_{2n}-S_{2n+1}=\alpha_{2n+1}\]

et

    \[0\leqslant R_{2n}=\sigma-S_{2n-1}\leqslant S_{2n}-S_{2n-1}=\alpha_{2n}\]

Par conséquent :

    \[\forall n\in\mathbb{N},\thinspace\left|R_{n}\right|\leqslant\alpha_{n}\]

comme annoncé.

Voici maintenant deux exemples d’utilisation du TSA.

Exemple 1

Nous avons rencontré plus haut la série harmonique alternée :

    \[\sum_{n\geqslant1}\frac{\left(-1\right)^{n-1}}{n}\]

Sa convergence a été établie en passant par une expression intégrale des sommes partielles. Nous aurions pu appliquer le TSA puisque, de toute évidence, la valeur absolue du terme général décroît et tend vers 0.

Bien entendu, ceci ne nous donne pas accès au calcul de la somme. En revanche, la majoration du reste nous informe quant à l’erreur commise en remplaçant cette somme par une somme partielle.

Plus précisément :

    \begin{eqnarray*}\left|\sum_{k=1}^{\infty}\frac{\left(-1\right)^{k-1}}{k}-\sum_{k=1}^{n-1}\frac{\left(-1\right)^{k-1}}{k}\right| & = & \left|\sum_{k=n}^{\infty}\frac{\left(-1\right)^{k-1}}{k}\right|\\& \leqslant & \frac{1}{n}\end{eqnarray*}

Donc, étant donné \epsilon>0, pour que {\displaystyle \sum_{k=1}^{n-1}\frac{\left(-1\right)^{k-1}}{k}} puisse être considéré comme une valeur approchée de \ln\left(2\right) à \epsilon près, il suffit que n\geqslant\frac{1}{\epsilon}.

Pour atteindre une précision de 10^{-9} il « suffit » donc d’ajouter le premier milliard de termes … ce qui est assez lamentable, en termes d’efficacité !

Il existe diverses façons de contourner cet obstacle, en construisant des séries qui convergent très rapidement vers \ln\left(2\right). Mais c’est un autre sujet.

Exemple 2

On pose, pour tout n\in\mathbb{N} :

    \[u_{n}=\cos\left(\pi\sqrt{n^{2}+n+1}\right)\]

A priori, il n’est pas évident que {\displaystyle \lim_{n\rightarrow\infty}u_{n}=0} (sans même parler de convergence de la série).

On peut toutefois comprendre les choses intuitivement : lorsque n est grand, \sqrt{n^{2}+n+1} est voisin de n+\frac{1}{2} (si vous en doutez, prenez votre calculette préférée et regardez ce qui se passe pour n=1000, par exemple), de sorte que u_{n} est « peu différent » de \cos\left(\pi n+\frac{\pi}{2}\right)=0.

Bon. Pas très rigoureux tout ça … et puis, quand bien même on démontrerait que la suite u converge vers 0, cela ne nous apprendrait rien sur la nature de la série \sum_{n\geqslant0}u_{n}.

Pour y voir clair, on peut utiliser la technique de l’expression conjuguée pour transformer :

    \[\epsilon_{n}=\sqrt{n^{2}+n+1}-\left(n+\frac{1}{2}\right)\]

On voit que :

    \begin{eqnarray*}\epsilon_{n} & = & \frac{n^{2}+n+1-\left(n+\frac{1}{2}\right)^{2}}{\sqrt{n^{2}+n+1}+n+\frac{1}{2}}\\& = & \frac{3}{4\left(\sqrt{n^{2}+n+1}+n+\frac{1}{2}\right)}\end{eqnarray*}

Ceci prouve que la suite \epsilon converge vers 0 en décroissant et qu’elle est à termes dans \left[0,\frac{1}{2}\right].

Comme :

    \begin{eqnarray*}u_{n} & = & \cos\left(\pi n+\frac{\pi}{2}+\pi\epsilon_{n}\right)\\& = & \left(-1\right)^{n+1}\sin\left(\pi\epsilon_{n}\right)\end{eqnarray*}

alors :

    \[\left|u_{n}\right|=\sin\left(\pi\epsilon_{n}\right)\]

qui converge vers 0 en décroissant (puisque \sin est croissante sur \left[0,\frac{\pi}{2}\right]).

Ainsi, le TSA s’applique et la série \sum_{n\geqslant0}u_{n} converge.

Grâce à la règle des équivalents, on peut ajouter qu’elle est semi-convergente puisque :

    \[\left|u_{n}\right|\sim\pi\epsilon_{n}\sim\frac{3}{8n}\]

Un exemple (un peu tiré par les cheveux) de série alternée convergente est étudié à l’exercice n° 8 de cette fiche; il s’agit de :

    \[\sum_{n\geqslant0}\sin\left(\pi en!\right)\]

4 – Développement asymptotique du terme général

Etant donnée une suite u, on appelle développement asymptotique à 2 termes de cette suite toute écriture de la forme :

    \[u_{n}=a_{n}+b_{n}+o\left(b_{n}\right)\]

avec b_{n}=o\left(a_{n}\right). Il revient donc au même d’écrire :

    \[u_{n}\sim a_{n}\qquad\text{et}\qquad u_{n}-a_{n}\sim b_{n}\]

Il est facile de généraliser cela à un développement asymptotique à q termes. Pour être plus précis, il faudrait définir la notion d’échelle de comparaison, mais restons simples et examinons plutôt deux exemples significatifs qui montrent l’intérêt de cette notion pour l’étude des séries.

Exemple 1

On demande la nature de la série de terme général :

    \[u_{n}=\frac{\left(-1\right)^{n}}{n+\left(-1\right)^{n}}\qquad\left(n\geqslant2\right)\]

A première vue, on peut être tenté d’utiliser le TSA : la suite u est de signe alterné et elle converge vers 0 … il ne manque plus que la condition de décroissance à vérifier … Mais la suite de terme général :

    \[\left|u_{n}\right|=\frac{1}{n+\left(-1\right)^{n}}\]

n’est pas décroissante. Pire : elle n’est décroissante à partir d’aucun rang. Pas question, dans ces conditions, d’appliquer le TSA.

La bonne idée consiste à développer asymptotiquement le terme général :

    \begin{eqnarray*}u_{n} & = & \frac{\left(-1\right)^{n}}{n+\left(-1\right)^{n}}\\& = & \frac{\left(-1\right)^{n}}{n}\left(1+\frac{\left(-1\right)^{n}}{n}\right)^{-1}\\& = & \frac{\left(-1\right)^{n}}{n}\left(1-\frac{\left(-1\right)^{n}}{n}+o\left(\frac{1}{n}\right)\right)\\& = & \frac{\left(-1\right)^{n}}{n}-\frac{1}{n^{2}}+o\left(\frac{1}{n^{2}}\right)\end{eqnarray*}

Ce calcul montre que la série \sum_{n\geqslant2}u_{n} converge puisqu’elle est combinaison linéaire de trois séries convergentes, à savoir :

  • la série harmonique alternée,
  • la série de Riemann {\displaystyle \sum_{n\geqslant2}\frac{1}{n^{2}}},
  • une série absolument convergente dont le terme général est, en valeur absolue, majoré APCR par {\displaystyle \frac{1}{n^{2}}}.

Exemple 2

On demande la nature de la série de terme général :

    \[u_{n}=\frac{\left(-1\right)^{n}}{\sqrt{n}+\left(-1\right)^{n}}\qquad\left(n\geqslant2\right)\]

Il s’agit d’une variante de l’exemple précédent. On pourrait peut-être utiliser le fait que :

    \[u_{n}\sim\frac{\left(-1\right)^{n}}{\sqrt{n}}\]

et conclure avec la règle des équivalents ? Comme la série {\displaystyle \sum_{n\geqslant1}\frac{\left(-1\right)^{n}}{\sqrt{n}}} converge (d’après le TSA), cela prouverait que la série \sum_{n\geqslant1}u_{n} converge aussi.

ATTENTION ! Ce raisonnement est faux !

La règle des équivalents, qui a été étudiée ici, ne s’applique qu’à des séries dont le terme général est de signe constant APCR. On ne peut donc pas l’utiliser dans ce cas.

Vous l’aurez deviné, c’est un développement asymptotique qu’il nous faut :

    \begin{eqnarray*}u_{n} & = & \frac{\left(-1\right)^{n}}{\sqrt{n}+\left(-1\right)^{n}}\\& = & \frac{\left(-1\right)^{n}}{\sqrt{n}}\left(1+\frac{\left(-1\right)^{n}}{\sqrt{n}}\right)^{-1}\\& = & \frac{\left(-1\right)^{n}}{\sqrt{n}}\left(1-\frac{\left(-1\right)^{n}}{\sqrt{n}}+O\left(\frac{1}{n}\right)\right)\\& = & \frac{\left(-1\right)^{n}}{\sqrt{n}}-\frac{1}{n}+O\left(\frac{1}{n^{3/2}}\right)\end{eqnarray*}

La série étudiée apparaît maintenant comme combinaison linéaire de trois séries :

  • la série {\displaystyle \sum_{n\geqslant1}\frac{\left(-1\right)^{n}}{\sqrt{n}}}, qui converge (d’après le TSA)
  • la série harmonique, qui diverge
  • la série « résiduelle », absolument convergente puisque de terme général majoré, en valeur absolue, par {\displaystyle \frac{K}{n^{3/2}}} pour un certain K>0.

Moralité, la série {\displaystyle \sum_{n\geqslant1}\frac{\left(-1\right)^{n}}{\sqrt{n}+\left(-1\right)^{n}}} diverge.

5 – Règle d’Abel

Niels Henrik ABEL (1802 – 1829)

La transformation d’Abel, que nous allons décrire dans cette section, s’apparente formellement à une intégration par parties … sauf que les intégrales sont remplacées par des sommes ordinaires.

C’est ce qu’on pourrait appeler une IPP « discrète ».

Proposition (transformation d’Abel)

Soient \alpha_{1},\cdots,\alpha_{n}\in\mathbb{C} et x_{1},\cdots,x_{n}\in\mathbb{C}. Si l’on pose pour tout k\in\left\llbracket 1,n\right\rrbracket :

    \[X_{k}=\sum_{j=1}^{k}x_{j}\]

alors :

    \[\sum_{k=1}^{n}\alpha_{k}x_{k}=\alpha_{n}X_{n}+\sum_{k=1}^{n-1}\left(\alpha_{k}-\alpha_{k+1}\right)X_{k}\]

Preuve (cliquer pour déplier / replier)

En remplaçant chaque x_{k} par X_{k}-X_{k-1} (et en convenant que X_{0}=0), on obtient :

    \begin{eqnarray*}\sum_{k=1}^{n}\alpha_{k}x_{k} & = & \sum_{k=1}^{n}\alpha_{k}\left(X_{k}-X_{k-1}\right)\\& = & -\alpha_{1}X_{0}+\alpha_{n}X_{n}+\sum_{k=1}^{n-1}\left(\alpha_{k}-\alpha_{k+1}\right)X_{k}\\& = & \alpha_{n}X_{n}+\sum_{k=1}^{n-1}\left(\alpha_{k}-\alpha_{k+1}\right)X_{k}\end{eqnarray*}

Voici maintenant une condition suffisante de convergence qui vient s’ajouter aux règles déjà connues (et qui permettra parfois de conclure lorsque celles-ci ne s’appliquent pas …).

Règle d’Abel

On suppose que la suite réelle \left(\alpha_{n}\right)_{n\geqslant1} converge vers 0 en décroissant et que \left(x_{n}\right)_{n\geqslant1} est une suite complexe dont la suite des sommes partielles est bornée.

Dans ces conditions, la série \displaystyle{\sum_{n\geqslant1}\alpha_{n}x_{n}} est convergente.

Preuve (cliquer pour déplier / replier)

On pose, pour tout n\geqslant1 :

    \[X_{n}=\sum_{k=1}^{n}x_{k}\]

Avec une transformation d’Abel, la n-ème somme partielle de la série \sum_{n\geqslant1}\alpha_{n}x_{n} s’écrit :

    \[\sum_{k=1}^{n}\alpha_{k}x_{k}=\alpha_{n}X_{n}+\sum_{k=1}^{n-1}\left(\alpha_{k}-\alpha_{k+1}\right)X_{k}\]

Il existe par hypothèse un réel A>0 tel que :

    \[\forall k\in\mathbb{N}^{\star},\thinspace\left|X_{k}\right|\leqslant A\]

et donc (compte tenu de la décroissance de la suite \alpha) :

    \[\left|\left(\alpha_{k}-\alpha_{k+1}\right)X_{k}\right|\leqslant A\left(\alpha_{k}-\alpha_{k+1}\right)\]

ce qui prouve la convergence absolue de la série {\displaystyle \sum_{k\geqslant1}\left(\alpha_{k}-\alpha_{k+1}\right)X_{k}.}

Par ailleurs :

    \[\left|\alpha_{n}X_{n}\right|\leqslant A\,\alpha_{n}\underset{n\rightarrow\infty}{\rightarrow}0\]

et la convergence de la série {\displaystyle \sum_{n\geqslant1}\alpha_{n}x_{n}} est établie.

Remarque

Le TSA est un cas particulier de la règle d’Abel ci-dessus puisque, si l’on pose pour tout n\in\mathbb{N} :

    \[X_n=\sum_{k=0}^n(-1)^k\]

alors la suite X est bornée (elle ne prend que les deux valeurs 0 et 1).

Traitons un exemple emblématique d’utilisation de le règle d’Abel.

Proposition

Etant donnés \theta\in\mathbb{R}-2\pi\mathbb{Z} et s\in\left]0,1\right], la série \displaystyle{\sum_{n\geqslant1}\frac{e^{in\theta}}{n^{s}}} est semi-convergente.

La divergence de la série des modules est évidente, puisque la série de Riemann {\displaystyle \sum_{n\geqslant1}\frac{1}{n^{s}}} diverge.

Pour la convergence, on applique la règle d’Abel, en considérant que, pour tout n\geqslant1 :

    \[\alpha_{n}=\frac{1}{n^{s}}\qquad\text{et}\qquad x_{n}=e^{in\theta}\]

Comme la suite {\displaystyle \left(\frac{1}{n^{s}}\right)_{n\geqslant1}} converge vers 0 en décroissant, il suffit de prouver que la suite de terme général :

    \[X_{n}=\sum_{k=1}^{n}e^{ik\theta}\]

est bornée. Or, c’est bien le cas, puisque (somme géométrique de raison e^{i\theta}\neq1) :

    \[X_{n}=\frac{e^{i\theta}\left(1-e^{in\theta}\right)}{1-e^{i\theta}}\]

d’où :

    \[\forall n\in\mathbb{N}^{\star},\thinspace\left|X_{n}\right|\leqslant\frac{2}{\left|1-e^{i\theta}\right|}\]

Il résulte de cette proposition que l’ensemble des couples \left(s,\theta\right)\in\mathbb{R}^{2} pour lesquels la série trigonométrique {\displaystyle \sum_{n\geqslant1}\frac{e^{in\theta}}{n^{s}}} converge est :

    \[\left(\left]1,+\infty\right[\times\mathbb{R}\right)\cup\left(\left]0,1\right]\times\left(\mathbb{R}-2\pi\mathbb{Z}\right)\right)\]

Pour un tel couple \left(s,\theta\right), les séries {\displaystyle \sum_{n\geqslant1}\frac{\cos\left(n\theta\right)}{n^{s}}} et {\displaystyle \sum_{n\geqslant1}\frac{\sin\left(n\theta\right)}{n^{s}}} sont donc convergentes. Le sont-elles absolument ou bien sont-elles semi-convergentes ? Cette question est (partiellement) abordée dans l’exercice n° 6 de cette fiche.

Concernant la transformation d’Abel, on pourra consulter aussi l’exercice n° 8 de cette fiche.

6 – Séries et intégrales

Dans la première partie de cet exposé, on a étudié la nature des séries de Riemann en effectuant une comparaison série / intégrale.

La proposition suivante décrit cette méthode sous une forme un peu plus générale.

Proposition

Soient N\in\mathbb{N} et f:\left[N,+\infty\right[\rightarrow\mathbb{R} une application continue, positive et décroissante.

La série \sum_{n\geqslant N}f\left(n\right) et l’intégrale impropre \int_{\left[N,+\infty\right[}f\left(t\right)\thinspace dt sont de même nature.

Preuve (cliquer pour déplier / replier)

Comme f est décroissante, pour tout k\geqslant N :

    \[\forall t\in\left[k,k+1\right],\:f\left(t\right)\leqslant f\left(k\right)\]

donc (par croissance de l’intégrale) :

    \[\int_{k}^{k+1}f\left(t\right)\thinspace dt\leqslant f\left(k\right)\]

puis, en sommant pour k\in\left\llbracket N,n\right\rrbracket (avec n>N) :

    \[\int_{N}^{n+1}f\left(t\right)\thinspace dt\leqslant\sum_{k=N}^{n}f\left(k\right)\]

De manière analogue, mais en partant cette fois de :

    \[\forall t\in\left[k-1,k\right],\thinspace f\left(k\right)\leqslant f\left(t\right)\]

on parvient à :

    \[\sum_{k=N}^{n}f\left(k\right)\leqslant f\left(N\right)+\int_{N}^{n}f\left(t\right)\thinspace dt\]

Bref, on dispose de l’encadrement :

    \[\fcolorbox{black}{myBlue}{$\displaystyle{\int_{N}^{n+1}f\left(t\right)\thinspace dt\underset{\star}{\leqslant}\sum_{k=N}^{n}f\left(k\right)\underset{\star\star}{\leqslant}f\left(N\right)+\int_{N}^{n}f\left(t\right)\thinspace dt}$}\]

valable pour tout n\geqslant N. Ceci posé, on constate que :

  • si la série \sum_{k\geqslant N}f\left(k\right) converge, alors pour tout x\in\left]N,+\infty\right[, on voit avec \left(\star\right) et en tenant compte de la positivité de f que :

        \[\int_{N}^{x}f\left(t\right)\thinspace dt\leqslant\int_{N}^{\left\lfloor x\right\rfloor +1}f\left(t\right)\thinspace dt\leqslant\sum_{k=N}^{\left\lfloor x\right\rfloor }f\left(k\right)\leqslant\sum_{k=N}^{\infty}f\left(k\right)\]

    L’application x\mapsto\int_{N}^{x}f\left(t\right)\thinspace dt est croissante et majorée, donc possède une limite finie en +\infty. Autrement dit, l’intégrale impropre \int_{\left[N,+\infty\right[}f\left(t\right)\thinspace dt converge.
  • si l’intégrale impropre \int_{N}^{+\infty}f\left(t\right)\thinspace dt converge, alors d’après \left(\star\star\right) :

        \[\sum_{k=N}^{n}f\left(k\right)\leqslant f\left(N\right)+\int_{N}^{+\infty}f\left(t\right)\thinspace dt\]

    La suite des sommes partielles est majorée et donc, vue la positivité de son terme général, la série \sum_{k\geqslant N}f\left(k\right) converge.

Un exemple classique d’utilisation de cette technique (outre les séries de Riemann dont on a déjà parlé) est celui des séries de Bertrand : cette question fait l’objet de l’exercice n° 5 de cette fiche.

Détaillons, en exercice, un exemple similaire :

Exercice

Déterminer les \alpha\in\mathbb{R} pour lesquels la série :

    \[\sum_{n\geqslant3}\frac{1}{n\ln\left(n\right)\ln^{\alpha}\left(\ln\left(n\right)\right)}\]

convergente.

Une solution est consultable en annexe.

L’idée de comparer une série et une intégrale ne se limite pas au cas où la fonction intégrée est décroissante et positive (même si ce cas est certainement le plus simple). D’une manière générale, on peut espérer découvrir la nature de {\displaystyle \sum_{n\geqslant N}f\left(n\right)} en remarquant que, pour tout n\geqslant N :

    \[f\left(n\right)=u_{n}+v_{n}\]

avec :

    \[u_{n}=\int_{n}^{n+1}f\left(t\right)\thinspace dt\qquad\text{et}\qquad v_{n}=f\left(n\right)-\int_{n}^{n+1}f\left(t\right)\thinspace dt\]

et en étudiant les séries {\displaystyle \sum_{n\geqslant N}u_{n}} et {\displaystyle \sum_{n\geqslant N}v_{n}}. Contentons-nous d’un exemple significatif montrant la fécondité de ce point de vue.

Exemple

On demande la nature de la série :

    \[\sum_{n\geqslant1}\frac{\cos\left(\pi\sqrt{n}\right)}{n}\]

Posons, pour tout n\in\mathbb{N}^{\star} :

    \[u_{n}=\frac{\cos\left(\pi\sqrt{n}\right)}{n},\qquad v_{n}=\int_{n}^{n+1}\frac{\cos\left(\pi\sqrt{t}\right)}{t}\thinspace dt\]

Le changement de variable t=x^{2} donne :

    \[v_{n}=2\thinspace\int_{\sqrt{n}}^{\sqrt{n+1}}\frac{\cos\left(\pi x\right)}{x}\thinspace dx\]

Puis, après intégration par parties :

    \[\frac{\pi}{2}\thinspace v_{n}=\left[\frac{\sin\left(\pi x\right)}{x}\right]_{\sqrt{n}}^{\sqrt{n+1}}+\int_{\sqrt{n}}^{\sqrt{n+1}}\frac{\sin\left(\pi x\right)}{x^{2}}\thinspace dx\]

Or, d’une part, la série {\displaystyle \sum_{n\geqslant1}\left(\frac{\sin\left(\pi\sqrt{n+1}\right)}{\sqrt{n+1}}-\frac{\sin\left(\pi\sqrt{n}\right)}{\sqrt{n}}\right)} converge (et sa somme est nulle, par sommation télescopique) et, d’autre part, la série {\displaystyle \sum_{n\geqslant1}\int_{\sqrt{n}}^{\sqrt{n+1}}\frac{\sin\left(\pi x\right)}{x^{2}}\thinspace dx} converge absolument, car :

    \[\left|\int_{\sqrt{n}}^{\sqrt{n+1}}\frac{\sin\left(\pi x\right)}{x^{2}}\thinspace dx\right|\leqslant\int_{\sqrt{n}}^{\sqrt{n+1}}\frac{dx}{x^{2}}=\frac{1}{\sqrt{n}}-\frac{1}{\sqrt{n+1}}\]

Par ailleurs, si l’on pose {\displaystyle F\left(x\right)=\int_{1}^{x}\frac{\cos\left(\pi\sqrt{t}\right)}{t}\thinspace dt}, on constate (en utilisant une formule de Taylor-Lagrange au second ordre) que pour tout n\in\mathbb{N}^{\star}, il existe c\in\left]n,n+1\right[ tel que :

    \[v_{n}=F\left(n+1\right)-F\left(n\right)=F'\left(n\right)+\frac{1}{2}F''\left(c\right)\]

d’où :

    \[\left|v_{n}-u_{n}\right|\leqslant\frac{1}{2n^{2}}+\frac{\pi}{4n^{3/2}}\]

ce qui montre la convergence (absolue) de la série {\displaystyle \sum_{n\geqslant1}\left(v_{n}-u_{n}\right).}

Finalement, la série {\displaystyle \sum_{n\geqslant1}u_{n}} converge aussi, puisque c’est la différence de deux séries convergentes.

7 – Produit de Cauchy de deux séries

Le produit de Cauchy de deux séries complexes a été défini à la section 1. Le principal résultat est le suivant :

Théorème (produit de Cauchy de séries ACV)

Si les séries \sum_{n\geqslant0}a_{n} et \sum_{n\geqslant0}b_{n} sont absolument convergentes, alors leur produit de Cauchy \sum_{n\geqslant0}c_{n} aussi et de plus :

    \[\sum_{n=0}^{\infty}c_{n}=\left(\sum_{n=0}^{\infty}a_{n}\right)\left(\sum_{n=0}^{\infty}b_{n}\right)\]

Preuve (cliquer pour déplier / replier)

Rappelons que, par définition :

    \[\forall n\in\mathbb{N},\thinspace c_{n}=\sum_{k=0}^{n}a_{k}b_{n-k}\]

et traitons d’abord le cas particulier où les séries \sum_{n\geqslant0}a_{n} et \sum_{n\geqslant0}b_{n} sont à termes positifs.

Posons, pour tout n\in\mathbb{N} :

    \[A_{n}=\sum_{k=0}^{n}a_{k},\qquad B_{n}=\sum_{k=0}^{n}b_{k},\qquad C_{n}=\sum_{k=0}^{n}c_{k}\]

et notons :

    \[\alpha=\sum_{n=0}^{\infty}a_{n},\qquad\beta=\sum_{n=0}^{\infty}b_{n}\]

On observe que :

(\star)   \[\boxed{C_{n}\leqslant A_{n}B_{n}\leqslant C_{2n}}\]

ce qui peut se comprendre géométriquement en dessinant les domaines de sommation.

Comme les suites A et B convergent respectivement vers \alpha et \beta, leur produit est majoré. La suite C est ainsi majorée, donc convergente (la suite C est croissante en raison de la positivité supposée des termes a_{n} et b_{n} pour tout n\in\mathbb{N}). Notons :

    \[\gamma=\sum_{n=0}^{\infty}c_{n}\]

La suite extraite \left(C_{2n}\right)_{n\geqslant0} converge aussi vers \gamma et donc, d’après l’encadrement \left(\star\right) et après passage à la limite : \alpha\beta=\gamma.

Passons maintenant au cas général (termes complexes). Notons, pour tout n\in\mathbb{N} :

    \[c'_{n}=\sum_{k=0}^{n}\left|a_{k}b_{n-k}\right|\]

    \[X_{n}=\sum_{k=0}^{n}\left|a_{k}\right|,\qquad Y_{n}=\sum_{k=0}^{n}\left|b_{k}\right|,\qquad Z_{n}=\sum_{k=0}^{n}\left|c_{k}\right|\]

D’après l’inégalité triangulaire :

    \[\left|A_{n}B_{n}-C_{n}\right|\leqslant X_{n}Y_{n}-Z_{n}\]

or, d’après ce qui précède :

    \[\lim_{n\rightarrow\infty}\left(X_{n}Y_{n}-Z_{n}\right)=0\]

On a donc prouvé que :

    \[\lim_{n\rightarrow\infty}\left(A_{n}B_{n}-C_{n}\right)=0\]

ce qui revient à dire que la série \sum_{n\geqslant0}c_{n} converge et admet pour somme \alpha

L’exemple qui suit découle de ce théorème. Il est fondamental :

Proposition

La fonction exponentielle complexe vérifie l’équation fonctionnelle :

    \[\boxed{\forall\left(z,w\right)\in\mathbb{C}^{2},\thinspace\exp\left(z\right)\exp\left(w\right)=\exp\left(z+w\right)}\]

Preuve (cliquer pour déplier / replier)

Rappelons que, par définition :

    \[\fcolorbox{black}{myBlue}{$\displaystyle{\forall z\in\mathbb{C},\thinspace\exp\left(z\right)=\sum_{n=0}^{\infty}\frac{z^{n}}{n!}}$}\]

Cette série est absolument convergente puisque, d’après la règle de d’Alembert, si l’on pose (pour z\neq0 et pour tout n\in\mathbb{N}) :

    \[u_{n}=\frac{z^{n}}{n!}\]

alors :

    \[\frac{\left|u_{n+1}\right|}{\left|u_{n}\right|}=\frac{\left|z\right|}{n+1}\underset{n\rightarrow\infty}{\rightarrow}0<1\]

Maintenant, si l’on effectue le produit de Cauchy des séries {\displaystyle \sum_{n\geqslant0}\frac{z^{n}}{n!}} par {\displaystyle \sum_{n\geqslant0}\frac{w^{n}}{n!}} on trouve, d’après le théorème, une série absolument convergente ayant pour somme \exp\left(z\right)\exp\left(w\right). Son terme général est :

    \begin{eqnarray*}c_{n} & = & \sum_{k=0}^{n}\frac{z^{k}}{k!}\thinspace\frac{w^{n-k}}{\left(n-k\right)!}\\& = & \frac{1}{n!}\sum_{k=0}^{n}\binom{n}{k}z^{k}w^{n-k}\end{eqnarray*}

soit, d’après la formule du binôme :

    \[c_{n}=\frac{\left(z+w\right)^{n}}{n!}\]

Le résultat encadré en découle.

Etant données deux séries complexes \sum_{n\geqslant0}a_{n} et \sum_{n\geqslant0}b_{n}, voici trois questions qui se posent concernant leur produit de Cauchy \sum_{n\geqslant0}c_{n} :

  1. Est-il suffisant que \sum_{n\geqslant0}a_{n} et \sum_{n\geqslant0}b_{n} soient convergentes pour que \sum_{n\geqslant0}c_{n} le soit ?
  2. En cas de convergence des trois séries, a-t-on nécessairement : {\displaystyle \sum_{n=0}^{\infty}c_{n}=\left(\sum_{n=0}^{\infty}a_{n}\right)\left(\sum_{n=0}^{\infty}b_{n}\right)} ?
  3. Est-il nécessaire que \sum_{n\geqslant0}a_{n} et \sum_{n\geqslant0}b_{n} soient absolument convergentes pour que \sum_{n\geqslant0}c_{n} soit convergente ?

Les réponses à ces questions sont non, oui et non.

Question 1

Un contre-exemple suffit. Posons, pour tout n\in\mathbb{N} :

    \[a_{n}=b_{n}=\frac{(-1)^n}{\sqrt{n+1}}\]

auquel cas :

    \begin{eqnarray*}c_{n} & = & (-1)^n\sum_{k=0}^{n}\frac{1}{\sqrt{k+1}\sqrt{n-k+1}}\end{eqnarray*}

En utilisant l’inégalité bien connue

    \[\sqrt{st}\leqslant\frac{1}{2}\left(s+t\right)\]

qui est valable pour tout \left(s,t\right)\in\left[0,+\infty\right[^{2}, on voit que :

    \[\vert c_{n}\vert\geqslant\frac{2\left(n+1\right)}{n+2}\]

ce qui montre que la série \sum_{n\geqslant0}c_{n} diverge grossièrement.

Question 2

Il s’agit d’une (jolie) application du lemme de Cesàro. Comme on l’a déjà fait plus haut, notons :

    \[A_{n}=\sum_{k=0}^{n}a_{k},\qquad B_{n}=\sum_{k=0}^{n}b_{k},\qquad C_{n}=\sum_{k=0}^{n}c_{k}\]

Alors :

    \begin{eqnarray*}C_{n} & = & \sum_{k=0}^{n}\sum_{j=0}^{k}a_{j}b_{k-j}\\& = & \sum_{j=0}^{n}\left(a_{j}\sum_{k=j}^{n}b_{k-j}\right)\\& = & \sum_{j=0}^{n}a_{j}B_{n-j}\\& = & \sum_{k=0}^{n}a_{n-k}B_{k}\end{eqnarray*}

donc, après interversion des sommes :

    \begin{eqnarray*}\sum_{n=0}^{N}C_{n} & = & \sum_{n=0}^{N}\left[\sum_{k=0}^{n}a_{n-k}B_{k}\right]\\& = & \sum_{k=0}^{N}\left[\left(\sum_{n=k}^{N}a_{n-k}\right)B_{k}\right]\\& = & \sum_{k=0}^{N}A_{N-k}B_{k}\end{eqnarray*}

de sorte que :

(\blacktriangle)   \[\frac{1}{n+1}\sum_{n=0}^{N}C_{n}=\frac{1}{n+1}\sum_{k=0}^{N}A_{N-k}B_{k}\]

Or, on peut montrer que :

Lemme

Si x,y sont deux suites complexes convergentes, alors la suite de terme général :

    \[z_{n}=\frac{1}{n+1}\,\sum_{k=0}^{n}\,x_{k}\,y_{n-k}\]

converge aussi et :

    \[\lim_{n\rightarrow\infty}z_{n}=\left(\lim_{n\rightarrow\infty}x_{n}\right)\left(\lim_{n\rightarrow\infty}y_{n}\right)\]

Une preuve détaillée de ce lemme est consultable en annexe.

Avec ce résultat en poche, on voit que le membre de droite de \left(\blacktriangle\right) converge vers {\displaystyle \left(\sum_{n=0}^{\infty}a_{n}\right)\left(\sum_{n=0}^{\infty}b_{n}\right).}
Mais d’après le lemme de Cesàro, le membre de gauche converge vers {\displaystyle \sum_{n=0}^{\infty}c_{n}}. On peut ainsi conclure que :

    \[{\displaystyle \sum_{n=0}^{\infty}c_{n}}=\left(\sum_{n=0}^{\infty}a_{n}\right)\left(\sum_{n=0}^{\infty}b_{n}\right)\]

Question 3

Cette question débouche sur un résultat connu sous le nom de théorème de Mertens. Selon ce théorème, il suffit que les deux series soient convergentes et que l’une au moins d’entre elles le soit absolument. Une démonstration est proposée à l’exercice n° 9 de cette fiche.

Annexe

1 – Somme de séries de natures contraires

Etant données deux séries de natures contraires (l’une convergente et l’autre divergente), leur somme diverge.

Ceci n’a rien de spécifique aux séries. Considérons deux suites complexes x,\,y. Supposons que x converge et que y diverge. Si la suite x+y était convergente, alors y=\left(x+y\right)-x serait convergente, en tant que différence de deux suites convergentes. Cette contradiction prouve que la suite x+y diverge.

On peut maintenant appliquer ceci aux suites des sommes partielles pour obtenir le résultat voulu.

2 – Nature d’une série par comparaison à une intégrale

Il s’agissait de discuter, selon la valeur du paramètre réel \alpha, de la nature de la série :

    \[\sum_{n\geqslant3}\frac{1}{n\ln\left(n\right)\ln^{\alpha}\left(\ln\left(n\right)\right)}\]

Considérons l’application :

    \[f:\left[3,+\infty\right[\rightarrow\mathbb{R},\thinspace t\mapsto\frac{1}{t\ln\left(t\right)\ln^{\alpha}\left(\ln\left(t\right)\right)}\]

Sa dérivée est donnée par :

    \[f'\left(t\right)=-f\left(t\right)^{2}\left[\ln\left(t\right)\ln^{\alpha}\left(\ln\left(t\right)\right)+\ln^{\alpha}\left(\ln\left(t\right)\right)+\alpha\ln\left(t\right)\ln^{\alpha-1}\left(\ln\left(t\right)\right)\right]\]

expression du même signe que :

    \[-\left(\ln\left(t\right)+1+\alpha\frac{\ln\left(t\right)}{\ln\left(\ln\left(t\right)\right)}\right)\underset{{\scriptstyle +\infty}}{\sim}-\ln\left(t\right)\]

donc strictement négative pour t assez grand. Il en résulte l’existence d’un entier N\geqslant3 tel que f soit strictement décroissante sur \left[N,+\infty\right[.

Le théorème de comparaison série / intégrale s’applique donc. La série proposée est de même nature que l’intégrale impropre :

    \[\int_{N}^{+\infty}\frac{\text{dt}}{t\ln\left(t\right)\ln^{\alpha}\left(\ln\left(t\right)\right)}\]

Le changement de variable x=\ln\left(\ln\left(t\right)\right) nous ramène à l’intégrale :

    \[\int_{\ln\left(\ln\left(N\right)\right)}^{+\infty}\frac{dx}{x^{\alpha}}\]

dont on sait qu’elle converge si et seulement si \alpha>1.

3 – Un lemme de Cesàro par convolution

Soient x et y deux suites complexes convergentes, de limites respectives a et b. On définit une suite z en posant, pour tout n\in\mathbb{N} :

    \[z_{n}=\frac{1}{n+1}\,\sum_{k=0}^{n}\,x_{k}\,y_{n-k}\]

Montrons que la suite z est convergente et précisons sa limite.

On peut déjà deviner quelle pourrait être cette limite, en examinant le cas particulier où l’une des deux suites est constante. En effet, si y_{n}=b pour tout n\in\mathbb{N}, alors le lemme de Cesàro montre que {\displaystyle \lim_{n\rightarrow\infty}z_{n}=ab}.

Cela dit, revenons au cas général. On constate que, pour tout n\in\mathbb{N} :

    \begin{eqnarray*}z_{n}-ab & = & \frac{1}{n+1}\,\sum_{k=0}^{n}\,\left[\left(x_{k}-a\right)y_{n-k}+a\left(y_{n-k}-b\right)\right]\\& = & \frac{1}{n+1}\,\sum_{k=0}^{n}\,\left(x_{k}-a\right)y_{n-k}+\frac{a}{n+1}\,\sum_{j=0}^{n}\,\left(y_{j}-b\right)\end{eqnarray*}

On a effectué le changement d’indice j=n-k dans la dernière somme. La suite y étant convergente, elle est bornée :

    \[\exists M>0;\,\forall n\in\mathbb{N},\,\left|y_{n}\right|\leqslant M\]

Ainsi :

    \[\left|z_{n}-ab\right|\leqslant\frac{M}{n+1}\,\sum_{k=0}^{n}\,\left|x_{k}-a\right|+\frac{\left|a\right|}{n+1}\,\sum_{k=0}^{n}\,\left|y_{k}-b\right|\]

On voit, avec le lemme de Cesàro, que :

    \[\lim_{n\rightarrow\infty}\frac{1}{n+1}\,\sum_{k=0}^{n}\,\left|x_{k}-a\right|=\lim_{n\rightarrow\infty}\frac{1}{n+1}\,\sum_{k=0}^{n}\,\left|y_{k}-b\right|=0\]

ce qui permet de conclure.


Vos questions ou remarques sont les bienvenues. Vous pouvez laisser un commentaire ci-dessous ou bien passer par le formulaire de contact.

Partager cet article

La publication a un commentaire

  1. Oncle Junior

    Ce riche article nécessitera pour ma part au moins une deuxième lecture !

    Il est intéressant de lire et comprendre que le théorème des séries alternées est un cas particulier de la règle d’Abel (la règle d’Abel est (était?) hors programme MP et donc non enseignée dans une MP « modeste », du moins dans les années 2000).

    Pour les moins affûtés -comme moi-, dans le deuxième exemple de la partie 3, on peut écrire :
    rac(n^2 + n + 1) = rac((n + 1/2)^2 + 3/4) qui est proche de rac((n + 1/2)^2 ) ie n + 1/2 pour n grand, car le terme 3/4 devient négligeable devant les autres quantités qui croissent vers + l’infini.

    Bien à vous.

Laisser un commentaire