Bêta et Gamma

L’objet de cet article est d’établir de deux manières la célèbre identité :

    \[\boxed{\forall\left(x,y\right)\in\left]0,+\infty\right[^{2},\thinspace\Gamma\left(x\right)\Gamma\left(y\right)=B\left(x,y\right)\thinspace\Gamma\left(x+y\right)}\]

dans laquelle B et \Gamma désignent les fonctions Bêta et Gamma d’Euler.

Afin de ne rien laisser dans l’ombre, les définitions de ces deux fonctions dites « spéciales » vont d’abord être rappelées et quelques unes de leurs propriétés de base seront démontrées, après quoi on entrera dans le vif du sujet.

De manière anecdotique, cette formule peut servir à prouver que, si l’on pose W_{x}=\int_{0}^{\pi/2}\sin^{x}\left(t\right)\thinspace dt, alors pour tout réel x>0 :

    \[\fcolorbox{black}{myBlue}{$\displaystyle{xW_{x}W_{x-1}=\dfrac{\pi}{2}}$}\]

Ce résultat, très classique lorsque x est entier, est toutefois moins connu dans le cas général. Il fait l’objet de cette vidéo :

Note tardive : pour prouver que xW_xW_{x-1} est contamment égal à \pi/2, on peut aller beaucoup plus vite ! Comme expliqué dans la vidéo, une IPP prouve que l’application x\mapsto xW_xW_{x-1} est 1-périodique. Il suffit donc de prouver qu’elle admet en +\infty une limite finie pour conclure qu’elle est constante. Or, d’une part, x\mapsto W_x est décroissante et, d’autre part, que (pour n entier) : W_n\sim\sqrt{\frac\pi{2n}}. Donc, en encadrant le réel x par ses parties entières (par défaut et par excès) :

    \[\sqrt{\frac\pi{2x}}\sim\sqrt{\frac\pi{2\lceil x\rceil}}\sim W_{\left\lceil x\right\rceil }\leqslant W_{x}\leqslant W_{\left\lfloor x\right\rfloor}\sim\sqrt{\frac\pi{2\lfloor x\rfloor}}\sim\sqrt{\frac\pi{2x}}\]

d’où l’on tire que \displaystyle{\lim_{x\to+\infty}xW_xW_{x-1}=\frac\pi2}

1 – Les fonctions Bêta et Gamma

On doit à Euler l’introduction des fonctions B (bêta majuscule) et \Gamma (gamma majuscule) définies par :

    \[B\left(x,y\right)=\int_{0}^{1}t^{x-1}\left(1-t\right)^{y-1}\thinspace dt\qquad\left(x,y>0\right)\]

    \[\Gamma\left(x\right)=\int_{0}^{+\infty}t^{x-1}e^{-t}\thinspace dt\qquad\left(x>0\right)\]

même si ces notations ne sont pas les siennes. C’est en effet Jacques Binet (1786 – 1856) et Adrien-Marie Legendre (1752 – 1833), respectivement, qui ont proposé de noter ainsi ces intégrales à paramètres.

Commençons par vérifier la validité de ces définitions.

Si x\geqslant1 et y\geqslant1 alors l’intégrale \int_{0}^{1}t^{x-1}\left(1-t\right)^{y-1}\thinspace dt est celle d’une brave fonction continue sur un segment. Mais si x<1, cette intégrale devient impropre pour la borne 0 et, de même, elle devient impropre pour la borne 1 si y<1. Lorsque x<1, l’équivalent t^{x-1}\left(1-t\right)^{y-1}\underset{t\rightarrow{\scriptstyle 0}}{\sim}t^{x-1} montre que l’intégrale \int_{0}^{1/2}t^{x-1}\left(1-t\right)^{y-1}\thinspace dt est de même nature que \int_{0}^{1/2}t^{x-1}\thinspace dt, donc convergente si, et seulement si, x>0. On voit de même que \int_{1/2}^{1}t^{x-1}\left(1-t\right)^{y-1}\thinspace dt converge si, et seulement si, y>0. Moralité, le domaine de définition de B est \left]0,+\infty\right[^{2}.

De même, on précise la nature l’intégrale \int_{0}^{+\infty}t^{x-1}e^{-t}\thinspace dt en coupant l’intervalle d’intégration en deux : ceci permet de traiter séparément le problème en 0 et celui en +\infty.

D’une part t^{x-1}e^{-t}\underset{t\rightarrow{\scriptstyle 0}}{\sim}t^{x-1} et donc l’intégrale \int_{0}^{1}t^{x-1}e^{-t}\thinspace dt converge si, et seulement si, x>0.

D’autre part t^{x-1}e^{-t}\underset{t\rightarrow+\infty}{=}o\left(\dfrac{1}{t^{2}}\right) et donc l’intégrale \int_{1}^{+\infty}t^{x-1}e^{-t}\thinspace dt converge pour tout x\in\mathbb{R}. Ainsi, le domaine de définition de \Gamma est \left]0,+\infty\right[.

Afin d’approfondir les questions de convergence et de calcul des intégrales impropres, on pourra éventuellement consulter cet article.

2 – Une formule pour Bêta (parmi tant d’autres)

Si l’on pose s=1-t dans l’intégrale qui définit B\left(x,y\right), on voit aussitôt que :

    \[\boxed{\forall\left(x,y\right)\in\left]0,+\infty\right[^{2},\thinspace B\left(x,y\right)=B\left(y,x\right)}\]

Autrement dit, B est une fonction symétrique. Par ailleurs, il est naturel de relier B\left(x+1,y\right) et B\left(x,y+1\right) au moyen d’une intégration par parties. Si l’on pose :

    \begin{eqnarray*}u=t^{x} & ; & v'=\left(1-t\right)^{y-1}\\u'=x\thinspace t^{x-1} & ; & v=-\dfrac{\left(1-t\right)^{y}}{y}\end{eqnarray*}

on voit que :

    \begin{eqnarray*}B\left(x+1,y\right) & = & \left[-\dfrac{1}{y}t^{x}\left(1-t\right)^{y}\right]_{t=0}^{1}+\dfrac{x}{y}\int_{0}^{1}t^{x-1}\left(1-t\right)^{y}\thinspace dt\\& = & \dfrac{x}{y}\thinspace B\left(x,y+1\right)\end{eqnarray*}

En écrivant artificiellement t^{x}=\left(1-\left(1-t\right)\right)t^{x-1}, il apparaît que :

    \begin{eqnarray*}B\left(x+1,y\right) & = & \int_{0}^{1}t^{x-1}\left(1-t\right)^{y-1}\thinspace dt-\int_{0}^{1}t^{x-1}\left(1-t\right)^{y}\thinspace dt\\& = & B\left(x,y\right)-B\left(x,y+1\right)\end{eqnarray*}

On dispose ainsi des égalités :

    \[\left\{ \begin{array}{ccc}B\left(x+1,y\right) & = & \dfrac{x}{y}\thinspace B\left(x,y+1\right)\\\\B\left(x+1,y\right) & = & B\left(x,y\right)-B\left(x,y+1\right)\end{array}\right.\]

En éliminant B\left(x,y+1\right) entre ces deux relations, on obtient :

    \[\boxed{B\left(x+1,y\right)=\dfrac{x}{x+y}\thinspace B\left(x,y\right)}\]

3 – Équation fonctionnelle pour Gamma


Pour 0<a<A, si l’on intègre par parties {\displaystyle \int_{a}^{A}\,t^{x+1}\,e^{-t}\,dt} en posant :

    \begin{eqnarray*}u=t^{x+1} & ; & v'=e^{-t}\\u'=\left(x+1\right)t^{x} & ; & v=-e^{-t}\end{eqnarray*}

il vient :

    \[\int_{a}^{A}\,t^{x+1}\,e^{-t}\,dt=\left[-t^{x+1}\,e^{-t}\right]_{t=a}^{A}+\left(x+1\right)\,\int_{a}^{A}\,t^{x}\,e^{-t}\,dt\]

Ensuite, en faisant tendre a vers 0 et A vers +\infty, on obtient :

    \[\boxed{\forall x\in\left]0,+\infty\right[,\,\Gamma\left(x+1\right)=x\,\Gamma\left(x\right)}\]

Cette équation fonctionnelle explique que certains appellent \Gamma la « fonction factorielle ». En effet, comme \Gamma\left(1\right)=1, une simple récurrence donne :

    \[\boxed{\forall n\in\mathbb{N},\,\Gamma\left(n+1\right)=n!}\]

Autrement dit, la fonction \Gamma apporte un prolongement de la factorielle à tous les réels strictement plus grands que -1.

Par exemple, si l’on connaît la valeur de l’intégrale de Gauss, on peut évaluer \Gamma aux nombres demi-entiers (et donc, donner du sens à la factorielle d’un demi-entier). En effet, pour tout n\in\mathbb{N}, l’équation fonctionnelle précédente donne :

    \[\Gamma\left(n+\frac{1}{2}\right)=\left[\prod_{k=0}^{n-1}\left(k+\frac{1}{2}\right)\right]\,\Gamma\left(\frac{1}{2}\right)=\frac{\left(2n\right)!}{2^{2n}n!}\,\Gamma\left(\frac{1}{2}\right)\]

Or, comme on le voit en posant t=u^{2} :

    \[\Gamma\left(\frac{1}{2}\right)=\int_{0}^{+\infty}\,\frac{e^{-t}}{\sqrt{t}}\,dt=2\,\int_{0}^{+\infty}\,e^{-u^{2}}\,du=\sqrt{\pi}\]

Finalement :

    \[\boxed{\forall n\in\mathbb{N},\,\Gamma\left(n+\frac{1}{2}\right)=\frac{\left(2n\right)!}{2^{2n}n!}\,\sqrt{\pi}}\]

4 – La formule d’Euler

C’est au cours d’un échange épistolaire avec Christian Goldbach, vers 1729 – 1730, qu’Euler adopta la formule ci-dessous comme définition de ce qui devait s’appeler par la suite la fonction \Gamma :

(\mathcal E)   \[\fcolorbox{black}{myBlue}{$\displaystyle{\Gamma\left(x\right)=\lim_{n\rightarrow+\infty}\dfrac{n!\thinspace n^{x}}{x\left(x+1\right)\cdots\left(x+n\right)}}$}\]

Selon le point de vue moderne (adopté dans cet article), la formule \left(\mathcal{E}\right) doit bien sûr être démontrée ! Elle va découler du lemme suivant.

Lemme

Pour tout x>0 :

    \[\lim_{n\rightarrow+\infty}\int_{0}^{n}t^{x-1}\left(1-\dfrac{t}{n}\right)^{n}\thinspace dt=\Gamma\left(x\right)\]

Le plus rapide consiste sans doute à utiliser le théorème de convergence dominée. Fixons x>0 et posons, pour tout n\in\mathbb{N}^{\star} :

    \[f_{n}:\left]0,+\infty\right[\rightarrow\mathbb{R},\thinspace t\mapsto t^{x-1}\left(1-\dfrac{t}{n}\right)^{n}1_{\left]0,n\right]}\left(t\right)\]

Chaque f_{n} est continue (les limites à gauche et à droite de f_{n} en t=n sont nulles), positive et intégrable (car majorée par t\mapsto t^{x-1}e^{-t} qui est intégrable, ce qui donne au passage la condition de domination). Par conséquent :

    \[\lim_{n\rightarrow+\infty}\int_{0}^{n}t^{x-1}\left(1-\dfrac{t}{n}\right)^{n}\thinspace dt=\lim_{n\rightarrow+\infty}\int_{0}^{+\infty}f_{n}\left(t\right)\thinspace dt=\int_{0}^{+\infty}t^{x-1}e^{-t}\thinspace dt=\Gamma\left(x\right)\]

On peut aussi s’en sortir avec des petits moyens (mais c’est plus long …). On va s’appuyer sur la majoration :

    \[\forall n\in\mathbb{N}^{\star},\thinspace\forall t\in\left[0,n\right],\thinspace e^{-t}-\left(1-\dfrac{t}{n}\right)^{n}\leqslant\dfrac{t^{2}}{2n}e^{1-t}\]

dont une preuve détaillée est consultable en annexe.

Après multiplication par t^{x-1}puis intégration sur \left[0,n\right] :

    \[0\leqslant\int_{0}^{n}t^{x-1}\left(e^{-t}-\left(1-\dfrac{t}{n}\right)^{n}\right)\thinspace dt=\int_{0}^{n}t^{x-1}\thinspace\dfrac{t^{2}}{2n}\thinspace e^{1-t}\thinspace dt\]

c’est-à-dire :

    \[0\leqslant\int_{0}^{n}t^{x-1}\left(e^{-t}-\left(1-\dfrac{t}{n}\right)^{n}\right)\thinspace dt\int_{0}^{n}\left(t^{x-1}e^{-t/2}\right)\thinspace\left(\dfrac{t^{2}}{2n}\thinspace e^{1-t/2}\right)\thinspace dt\]

Or, l’application \left[0,+\infty\right[\rightarrow\mathbb{R},\thinspace t\mapsto\dfrac{t^{2}}{2}e^{1-t/2} est continue et possède en +\infty une limite finie (nulle); elle est donc bornée :

    \[\exists A>0,\thinspace\forall t\in\left[0,+\infty\right[,\thinspace0\leqslant\dfrac{t^{2}}{2}e^{1-t/2}\leqslant A\]

Ainsi :

    \[0\leqslant\int_{0}^{n}t^{x-1}\left(e^{-t}-\left(1-\dfrac{t}{n}\right)^{n}\right)\thinspace dt\leqslant\dfrac{A}{n}\int_{0}^{n}t^{x-1}e^{-t/2}\thinspace dt\leqslant\dfrac{M}{n}\]

où l’on a posé M=\int_{0}^{+\infty}t^{x-1}e^{-t/2}\thinspace dt. Ceci entraîne que :

    \[\int_{0}^{n}t^{x-1}\left(e^{-t}-\left(1-\dfrac{t}{n}\right)^{n}\right)\thinspace dt\underset{n\rightarrow\infty}{\longrightarrow}0\]

Finalement :

    \[\Gamma\left(x\right)-\int_{0}^{n}t^{x-1}\left(1-\dfrac{t}{n}\right)^{n}\thinspace dt=\int_{n}^{+\infty}t^{x-1}e^{-t}\thinspace dt+\int_{0}^{n}t^{x-1}\left(e^{-t}-\left(1-\dfrac{t}{n}\right)^{n}\right)\thinspace dt\underset{n\rightarrow+\infty}{\longrightarrow}0\]

puisque {\displaystyle \lim_{n\rightarrow+\infty}\int_{n}^{+\infty}t^{x-1}e^{-t}\thinspace dt=0} (reste d’une intégrale convergente). Le lemme est établi.

Passons à la preuve de la formule \left(\mathcal{E}\right). Partons de la relation :

    \[B\left(x,y+1\right)=\dfrac{y}{x}B\left(x+1,y\right)\]

déjà rencontrée au début de la section 2. En remplaçant y par un entier n\geqslant1, on en déduit par une récurrence immédiate :

    \[B\left(x,n+1\right)=\dfrac{n!}{x\left(x+1\right)\cdots\left(x+n-1\right)}\thinspace B\left(x+n,1\right)\]

Or B\left(x+n,1\right)=\int_{0}^{1}s^{x+n-1}\thinspace dt=\dfrac{1}{x+n} de sorte que :

(\heartsuit)   \[B\left(x,n+1\right)=\dfrac{n!}{x\left(x+1\right)\cdots\left(x+n\right)}\]

Par ailleurs, en posant t=ns :

    \[B\left(x,n+1\right)=\dfrac{1}{n}\int_{0}^{n}\left(\dfrac{t}{n}\right)^{x-1}\left(1-\dfrac{t}{n}\right)^{n}\thinspace dt\]

c’est-à-dire :

(\diamondsuit)   \[B\left(x,n+1\right)=\dfrac{1}{n^{x}}\int_{0}^{n}t^{x-1}\left(1-\dfrac{t}{n}\right)^{n}\thinspace dt\]

En confrontant les égalités \left(\heartsuit\right) et \left(\diamondsuit\right), il apparaît que :

    \[\int_{0}^{n}t^{x-1}\left(1-\dfrac{t}{n}\right)^{n}\thinspace dt=\dfrac{n!\thinspace n^{x}}{x\left(x+1\right)\cdots\left(x+n\right)}\]

En appliquant le lemme, on peut maintenant conclure :

    \[\boxed{\forall x>0,\thinspace\lim_{n\rightarrow+\infty}\dfrac{n!\thinspace n^{x}}{x\left(x+1\right)\cdots\left(x+n\right)}=\Gamma\left(x\right)}\]

5 – Lien entre Bêta et Gamma

Nous abordons maintenant la formule annoncée en début d’article :

    \[\fcolorbox{black}{myBlue}{$\displaystyle{\forall\left(x,y\right)\in\left]0,+\infty\right[^{2},\thinspace\Gamma\left(x\right)\thinspace\Gamma\left(y\right)=B\left(x,y\right)\thinspace\Gamma\left(x+y\right)}$}\]

Deux approches sont envisagées …

Via Fubini-Tonnelli

Soient x,y>0. Le produit \Gamma\left(x\right)\Gamma\left(y\right) se présente naturellement sous la forme :

    \begin{eqnarray*}\Gamma\left(x\right)\Gamma\left(y\right) & = & \left(\int_{0}^{+\infty}s^{x-1}e^{-s}\thinspace ds\right)\left(\int_{0}^{+\infty}t^{y-1}e^{-t}\thinspace dt\right)\\& = & \int_{0}^{+\infty}s^{x-1}e^{-s}\left(\int_{0}^{+\infty}t^{y-1}e^{-t}\thinspace dt\right)\thinspace ds\\& = & \int_{0}^{+\infty}\left(\int_{0}^{+\infty}s^{x-1}t^{y-1}e^{-(s+t)}\thinspace dt\right)\thinspace ds\end{eqnarray*}

Dans l’intégrale interne, posons \tau=s+t :

    \begin{eqnarray*}\Gamma\left(x\right)\Gamma\left(y\right) & = & \int_{0}^{+\infty}\left(\int_{s}^{+\infty}s^{x-1}\left(\tau-s\right)^{y-1}e^{-\tau}d\tau\right)\thinspace ds\end{eqnarray*}

Astuce classique, on peut « forcer » l’intervalle d’intégration à ne pas dépendre de s :

    \[\Gamma\left(x\right)\Gamma\left(y\right)=\int_{0}^{+\infty}\left(\int_{0}^{+\infty}1_{\left[s,+\infty\right[}\left(\tau\right)s^{x-1}\left(\tau-s\right)^{y-1}e^{-\tau}d\tau\right)\thinspace ds\]

On invoque alors le théorème de Fubini-Tonnelli pour intervertir les deux intégrales :

    \begin{eqnarray*}\Gamma\left(x\right)\Gamma\left(y\right) & = & \int_{0}^{+\infty}\left(\int_{0}^{+\infty}1_{\left[s,+\infty\right[}\left(\tau\right)s^{x-1}\left(\tau-s\right)^{y-1}e^{-\tau}ds\right)\thinspace d\tau\\& = & \int_{0}^{+\infty}\left(\int_{0}^{\tau}s^{x-1}\left(\tau-s\right)^{y-1}\thinspace ds\right)e^{-\tau}\thinspace d\tau\\& = & \int_{0}^{+\infty}\left(\int_{0}^{\tau}s^{x-1}\left(1-\dfrac{s}{\tau}\right)^{y-1}\thinspace ds\right)\tau^{y-1}e^{-\tau}\thinspace d\tau\end{eqnarray*}

On pose alors \sigma=\dfrac{s}{\tau} dans l’intégrale interne :

    \begin{eqnarray*}\Gamma\left(x\right)\Gamma\left(y\right) & = & \int_{0}^{+\infty}\left(\int_{0}^{1}\sigma^{x-1}\left(1-\sigma\right)^{y-1}\thinspace d\sigma\right)\tau^{x+y-1}e^{-\tau}d\tau\\& = & B\left(x,y\right)\thinspace\Gamma\left(x+y\right)\end{eqnarray*}

Via la log-convexité

Rappelons qu’une application \varphi définie sur un intervalle, à valeurs dans \left]0,+\infty\right[, est dite log-convexe lorsque \ln\circ\varphi est convexe. Cette notion de log-convexité intervient dans le théorème ci-dessous, qui fournit une caractérisation de la fonction \Gamma :

Théorème de Bohr-Mollerup

Soit f:\left]0,\,+\infty\right[\rightarrow\left]0,\,+\infty\right[ une application log-convexe.

Si de plus f\left(1\right)=1 et si \forall x>0,\,f\left(x+1\right)=x\,f\left(x\right), alors f=\Gamma.

Une preuve de ce théorème est proposée dans le dernier exercice de cette fiche .

Fixons y>0 et posons pour tout x>0 :

    \[f\left(x\right)=\dfrac{\Gamma\left(x+y\right)}{\Gamma\left(y\right)}\thinspace B\left(x,y\right)\]

D’évidence, f est bien définie sur \left]0,+\infty\right[ et à valeurs strictement positives. De plus :

    \[f\left(1\right)=\dfrac{\Gamma\left(1+y\right)}{\Gamma\left(y\right)}\thinspace B\left(1,y\right)=y\int_{0}^{1}t^{y-1}\thinspace dt=1\]

et pour tout x>0 :

    \[f\left(x+1\right)=\dfrac{\Gamma\left(x+y+1\right)}{\Gamma\left(y\right)}B\left(x+1,y\right)\]

Donc, d’après d’après l’équation fonctionnelle de \Gamma et la seconde formule établie à la section 2 :

    \[f\left(x+1\right)=\dfrac{\left(x+y\right)\thinspace\Gamma\left(x+y\right)}{\Gamma\left(y\right)}\thinspace\dfrac{x}{x+y}\thinspace B\left(x,y\right)=x\thinspace f\left(x\right)\]

Enfin, d’après Cauchy-Schwarz, x\mapsto B\left(x,y\right) est log-convexe et le produit de deux fonctions log-convexes est log-convexes (immédiat), donc f est log-convexe. Finalement f=\Gamma.

Autrement dit :

    \[\boxed{\forall\left(x,y\right)\in\left]0,+\infty\right[^{2},\thinspace B\left(x,y\right)=\dfrac{\Gamma\left(x\right)\thinspace\Gamma\left(y\right)}{\Gamma\left(x+y\right)}}\]

Remarque

A la fin de la section 3, on a vu comment la connaissance de l’intégrale de Gauss permettait de calculer \Gamma\left(\dfrac{1}{2}\right) et donc \Gamma\left(n+\dfrac{1}{2}\right) pour tout n\in\mathbb{N}. On peut aussi cheminer en sens inverse et déduire la valeur de \int_{0}^{+\infty}e^{-x^{2}}\thinspace dx de l’étude de la fonction \Gamma. En prenant x=y=\dfrac{1}{2} dans formule encadrée ci-dessus, on trouve en effet :

    \[B\left(\dfrac{1}{2},\dfrac{1}{2}\right)=\dfrac{\Gamma\left(\dfrac{1}{2}\right)^{2}}{\Gamma\left(1\right)}\]

Or d’une part \Gamma\left(1\right)=1 et, d’autre part :

    \[B\left(\dfrac{1}{2},\dfrac{1}{2}\right)=\int_{0}^{1}\dfrac{1}{\sqrt{t\left(1-t\right)}}\thinspace dt\]

c’est-à-dire, en posant t=\sin^{2}\left(\theta\right) :

    \[B\left(\dfrac{1}{2},\dfrac{1}{2}\right)=\int_{0}^{\pi/2}\thinspace\dfrac{2\sin\left(\theta\right)\cos\left(\theta\right)}{\sqrt{\sin^{2}\left(\theta\right)\cos^{2}\left(\theta\right)}}\thinspace d\theta=\pi\]

Ainsi : \Gamma\left(\dfrac{1}{2}\right)=\sqrt{\pi}, c’est-à-dire :

    \[\int_{0}^{+\infty}\dfrac{e^{-t}}{\sqrt{t}}\thinspace dt=\sqrt{\pi}\]

Pour finir, si l’on pose t=x^{2} dans cette dernière intégrale, on retrouve :

    \[\boxed{\int_{0}^{+\infty}e^{-x^{2}}\thinspace dx=\dfrac{\sqrt{\pi}}{2}}\]

6 – Annexe

On prouve ici la majoration :

    \[\fcolorbox{black}{myBlue}{$\displaystyle{\forall n\in\mathbb{N}^{\star},\thinspace\forall t\in\left[0,n\right],\thinspace e^{-t}-\left(1-\dfrac{t}{n}\right)^{n}\leqslant\dfrac{t^{2}}{2n}e^{1-t}}$}\]

qui a été utilisée pour prouver le lemme de la section 3.

L’application \psi:\left[0,+\infty\right[\rightarrow\mathbb{R},\thinspace x\mapsto e^{-x}-1+x-\frac{x^{2}}{2} est décroissante puisque :

    \[\forall x\geqslant0,\thinspace\psi'\left(x\right)=-e^{-x}+1-x\leqslant0\]

Comme \psi\left(0\right)=0, on voit que \psi est négative, c’est-à-dire :

(\star)   \[\forall x\in\left[0,+\infty\right[,\thinspace e^{-x}-1+x\leqslant\frac{x^{2}}{2}\]

Par ailleurs, en choisissant \left(a,b\right)=\left(e^{-x},1-x\right) dans l’identité remarquable :

    \[a^{n}-b^{n}=\left(a-b\right)\sum_{k=0}^{n-1}a^{k}b^{n-1-k}\]

on obtient :

    \[e^{-nx}-\left(1-x\right)^{n}=\left(e^{-x}-1+x\right)\sum_{k=0}^{n-1}\left(e^{-x}\right)^{n-1-k}\left(1-x\right)^{k}\]

Or, si x\in\left[0,1\right] :

    \[\sum_{k=0}^{n-1}\left(e^{-x}\right)^{n-1-k}\left(1-x\right)^{k}\leqslant\sum_{k=0}^{n-1}e^{-\left(n-1-k\right)x}e^{-kx}=\sum_{k=0}^{n-1}e^{-\left(n-1\right)x}=n\thinspace e^{-\left(n-1\right)x}\]

d’où, en multipliant par e^{-x}-1+x (qui est un réel positif) :

    \[e^{-nx}-\left(1-x\right)^{n}\leqslant ne^{-\left(n-1\right)x}\left(e^{-x}-1+x\right)\]

et donc, d’après \left(\star\right) :

    \[\forall n\in\mathbb{N}^{\star},\thinspace\forall x\in\left[0,1\right],\:e^{-nx}-\left(1-x\right)^{n}\leqslant\frac{nx^{2}}{2}e^{-\left(n-1\right)x}\leqslant\frac{nx^{2}}{2}\thinspace e^{1-nx}\]

Pour finir, en remplaçant x par \dfrac{t}{n} (qui appartient à \left[0,1\right] si l’on suppose t\in\left[0,n\right]), il vient :

    \[\boxed{\forall n\in\mathbb{N}^{\star},\thinspace\forall t\in\left[0,n\right],\thinspace e^{-t}-\left(1-\dfrac{t}{n}\right)^{n}\leqslant\dfrac{t^{2}}{2n}e^{1-t}}\]

comme souhaité.

Si cet article vous a intéressé, merci de laisser un petit commentaire 🙂

Partager cet article

Laisser un commentaire