Lettre C

CANONIQUE (base)

Commençons par un point important, souvent mal compris : étant donné un \mathbb{K}-espace vectoriel E abstrait, de dimension finie, l’expression base canonique de E n’a AUCUN sens !

En revanche, cette expression est bien définie lorsque E est \mathbb{K}^{n}, où bien \mathbb{K}_{n}\left[X\right] (espace des polynômes de degré inférieur où égal n) ou encore \mathcal{M}_{p,q}\left(\mathbb{K}\right) (espace des matrices rectangulaires à p lignes et q colonnes) :

La base canonique de \mathbb{K}^{n} est :

    \[\left(\left(1,0,0,\cdots,0\right),\left(0,1,0,\cdots,0\right),\cdots,\left(0,\cdots,0,0,1\right)\right)\]

La base canonique de \mathbb{K}_{n}\left[X\right] est :

    \[ \left(1,X,X^{2},\cdots,X^{n}\right) \]

La base canonique de \mathcal{M}_{p,q}\left(\mathbb{K}\right) est constituée des matrices E_{a,b} (avec 1\leqslant a\leqslant p et 1\leqslant b\leqslant q) définies par :

    \[E_{a,b}=\left[\delta_{i,a}\delta_{j,b}\right]_{1\leqslant i\leqslant p,\thinspace1\leqslant j\leqslant q} \]

\delta_{u,v} est le symbole de Kronecker. Par défaut, ces matrices (appelées « matrices élémentaires ») sont rangées selon l’ordre lexicographique dans \left\llbracket 1,p\right\rrbracket \times\left\llbracket 1,q\right\rrbracket .
Par exemple, la base canonique de \mathcal{M}_{2,3}\left(\mathbb{K}\right) est généralement donnée ainsi :

    \[ \left(\left[\begin{array}{ccc} 1 & 0 & 0\\ 0 & 0 & 0 \end{array}\right],\left[\begin{array}{ccc} 0 & 1 & 0\\ 0 & 0 & 0 \end{array}\right],\left[\begin{array}{ccc} 0 & 0 & 1\\ 0 & 0 & 0 \end{array}\right],\left[\begin{array}{ccc} 0 & 0 & 0\\ 1 & 0 & 0 \end{array}\right],\left[\begin{array}{ccc} 0 & 0 & 0\\ 0 & 1 & 0 \end{array}\right],\left[\begin{array}{ccc} 0 & 0 & 0\\ 0 & 0 & 1 \end{array}\right]\right) \]

Etant donnée une matrice M=\left[m_{i,j}\right]_{1\leqslant i\leqslant p,\thinspace1\leqslant j\leqslant q}\in\mathcal{M}_{p,q}\left(\mathbb{K}\right), l’application f\in\mathcal{L}\left(\mathbb{K}^{q},\mathbb{K}^{p}\right) représentée par M dans les bases canoniques de \mathbb{K}^{q} et \mathbb{K}^{p} est appelée : application linéaire canoniquement associée à M.

CARDINAL

Le cardinal d’un ensemble fini E est simplement le nombre d’éléments de E.

On le note : \text{card}(E).

Par exemple, si E=\{1,3,5,7,9\}, alors \text{card}(E)=5.

Pour être plus précis, on peut définir cette notion comme suit :

  • l’ensemble vide est de cardinal 0
  • si n\geqslant1, un ensemble est dit de cardinal n lorsqu’il est en bijection avec \llbracket1,n\rrbracket

La validité de cette définition résulte du fait que si m,n sont deux entiers naturels non nuls tels que \llbracket1,m\rrbracket et \llbracket1,n\rrbracket sont en bijection, alors m=n.

Si A,B sont deux ensembles finis et disjoints, alors :

    \[\text{card}(A\cup B)=\text{card}(A)+\text{card}(B)\]

Si l’on retire l’hypothèse A\cap B=\emptyset, cette formule prend la forme plus générale :

    \[\text{card}(A\cup B)=\text{card}(A)+\text{card}(B)-\text{card}(A\cap B)\]

On peut encore généraliser … pour obtenir la formule du crible, qui donne le cardinal d’une union finie d’ensembles finis.

La notion de cardinal s’étend aux cas des ensembles infinis, mais cette notion est plus délicate. Disons, sans rentrer dans les détails, que le cardinal d’un ensemble E peut être défini comme la classe (propre) des ensembles équipotents à E (c’est-à-dire : des ensembles qui sont en bijection avec E).

CAUCHY-SCHWARZ (inégalité de)

Définition

Etant donné un \mathbb{R}-espace vectoriel E, on appelle forme bilinéaire symétrique positive (FBSP) sur E toute application \varphi:E^{2}\rightarrow\mathbb{R} telle que, pour tout x\in E :

    \begin{gather*}\varphi\left(\cdot,x\right)\in\mathcal{L}\left(E,\mathbb{R}\right)\\ \varphi\left(x,\cdot\right)\in\mathcal{L}\left(E,\mathbb{R}\right)\\ \varphi\left(x,x\right)\geqslant0 \end{gather*}

et, pour tout (x,y)\in E^2 :

    \[\varphi\left(x,y\right)=\varphi\left(y,x\right)\]

On note classiquement \varphi\left(x,\cdot\right) l’application partielle E\rightarrow\mathbb{R},\thinspace y\mapsto\varphi\left(x,y\right).

Notation analogue pour \varphi\left(\cdot,y\right).

\mathcal{L}\left(E,\mathbb{R}\right) désigne l’espace des formes linéaires sur E.

Théorème (inégalité de Cauchy-Schwarz)

Etant donnés un \mathbb{R}-espace vectoriel E et une FBSP sur E :

(CS)   \[\boxed{\forall\left(x,y\right)\in E^{2},\thinspace\varphi\left(x,y\right)^{2}\leqslant\varphi\left(x,x\right)\varphi\left(y,y\right)}\]

Bien entendu, ce résultat est aussi valable :

  • si \varphi est une forme bilinéaire symétrique négative.
  • si \varphi est un produit scalaire (FBS définie positive).

On peut montrer que les FBS qui satisfont (CS) sont exactement les FBSP et leurs opposées.

Voici trois versions particulières usuelles de (CS) :

Exemple 1

Pour tout n\in\mathbb{N}^{\star} et pour tous \left(x_{1},\cdots,x_{n}\right)\in\mathbb{R}^{n} et \left(y_{1},\cdots,y_{n}\right)\in\mathbb{R}^{n} :

    \[\left(\sum_{i=1}^{n}x_{i}y_{i}\right)^{2}\leqslant\left(\sum_{i=1}^{n}x_{i}^{2}\right)\left(\sum_{i=1}^{n}y_{i}^{2}\right)\]

Exemple 2

Pour tout couple \left(f,g\right) d’applications continues par morceaux de \left[a,b\right] dans \mathbb{R} :

    \[\left(\int_{a}^{b}f\left(t\right)\thinspace g\left(t\right)\thinspace dt\right)^{2}\leqslant\left(\int_{a}^{b}f\left(t\right)^{2}\thinspace dt\right)\left(\int_{a}^{b}g\left(t\right)^{2}\thinspace dt\right)\]

Exemple 3

Si \left(\Omega,\mathcal{T},\mathbb{P}\right) est un espace probabilisé et si \left(X,Y\right) est un couple de variables aléatoires réelles possédant une variance, alors :

    \[\text{cov}\left(X,Y\right)^{2}\leqslant\mathbb{V}\left(X\right)\thinspace\mathbb{V}\left(Y\right)\]

A toute FBSP est associée une semi-norme, définie par :

    \[\forall x\in E,\thinspace\left\Vert x\right\Vert =\sqrt{\varphi\left(x,x\right)}\]

L’inégalité triangulaire pour cette semi-norme résulte directement de (CS).

Bien sûr, cette semi-norme devient une norme à part entière si \varphi est un produit scalaire.

Définition

Etant donné un \mathbb{R}-espace vectoriel E, on appelle forme bilinéaire symétrique positive (FBSP) sur E toute application \varphi:E^{2}\rightarrow\mathbb{R} telle que, pour tout x\in E :

    \begin{gather*}\varphi\left(\cdot,x\right)\in\mathcal{L}\left(E,\mathbb{R}\right)\\ \varphi\left(x,\cdot\right)\in\mathcal{L}\left(E,\mathbb{R}\right)\\ \varphi\left(x,x\right)\geqslant0 \end{gather*}

et, pour tout (x,y)\in E^2 :

    \[\varphi\left(x,y\right)=\varphi\left(y,x\right)\]

On note classiquement \varphi\left(x,\cdot\right) l’application partielle E\rightarrow\mathbb{R},\thinspace y\mapsto\varphi\left(x,y\right).

Notation analogue pour \varphi\left(\cdot,y\right).

\mathcal{L}\left(E,\mathbb{R}\right) désigne l’espace des formes linéaires sur E.

Théorème (inégalité de Cauchy-Schwarz)

Etant donnés un \mathbb{R}-espace vectoriel E et une FBSP sur E :

(CS)   \[\boxed{\forall\left(x,y\right)\in E^{2},\thinspace\varphi\left(x,y\right)^{2}\leqslant\varphi\left(x,x\right)\varphi\left(y,y\right)}\]

Bien entendu, ce résultat est aussi valable :

  • si \varphi est une forme bilinéaire symétrique négative.
  • si \varphi est un produit scalaire (FBS définie positive).

On peut montrer que les FBS qui satisfont (CS) sont exactement les FBSP et leurs opposées.

Voici trois versions particulières usuelles de (CS) :

Exemple 1

Pour tout n\in\mathbb{N}^{\star} et pour tous \left(x_{1},\cdots,x_{n}\right)\in\mathbb{R}^{n} et \left(y_{1},\cdots,y_{n}\right)\in\mathbb{R}^{n} :

    \[\left(\sum_{i=1}^{n}x_{i}y_{i}\right)^{2}\leqslant\left(\sum_{i=1}^{n}x_{i}^{2}\right)\left(\sum_{i=1}^{n}y_{i}^{2}\right)\]

Exemple 2

Pour tout couple \left(f,g\right) d’applications continues par morceaux de \left[a,b\right] dans \mathbb{R} :

    \[\left(\int_{a}^{b}f\left(t\right)\thinspace g\left(t\right)\thinspace dt\right)^{2}\leqslant\left(\int_{a}^{b}f\left(t\right)^{2}\thinspace dt\right)\left(\int_{a}^{b}g\left(t\right)^{2}\thinspace dt\right)\]

Exemple 3

Si \left(\Omega,\mathcal{T},\mathbb{P}\right) est un espace probabilisé et si \left(X,Y\right) est un couple de variables aléatoires réelles possédant une variance, alors :

    \[\text{cov}\left(X,Y\right)^{2}\leqslant\mathbb{V}\left(X\right)\thinspace\mathbb{V}\left(Y\right)\]

A toute FBSP est associée une semi-norme, définie par :

    \[\forall x\in E,\thinspace\left\Vert x\right\Vert =\sqrt{\varphi\left(x,x\right)}\]

L’inégalité triangulaire pour cette semi-norme résulte directement de (CS).

Bien sûr, cette semi-norme devient une norme à part entière si \varphi est un produit scalaire.

Remarque

Dans le cas particulier d’un espace préhilbertien réel (espace vectoriel réel muni d’un produit scalaire), on peut ajouter :

  • que le cas d’égalité dans l’inégalité (CS) est celui ou la famille \left(x,y\right) est liée,
  • que (CS) entraîne la continuité du produit scalaire. En conséquence, si A est une partie quelconque de E, son orthogonal est fermé (comme intersection d’une famille d’hyperplans fermés).

CESÀRO (lemme de)

Lemme de Cesàro discret

Si une suite réelle \left(x_{n}\right)_{n\geqslant0} possède une limite (finie ou infinie), alors la suite de terme général

    \[M_{n}=\frac{1}{n+1}\sum_{k=0}^{n}x_{k}\]

possède la même limite.

On montre ce résultat en revenant à la définition de la convergence (ou de la divergence vers l’infini) d’une suite réelle. Une preuve détaillée est disponible dans cet article.

Sa réciproque est fausse, comme on peut le voir avec la suite de terme général x_{n}=\left(-1\right)^{n}. En effet, la suite \left(M_{n}\right)_{n\geqslant0} converge vers 0, mais la suite \left(x_{n}\right)_{n\geqslant0} diverge.

On dispose toutefois d’une réciproque partielle :

Si la suite \left(M_{n}\right)_{n\geqslant0} converge et si la suite \left(x_{n}\right)_{n\geqslant0} est monotone, alors la suite \left(x_{n}\right)_{n\geqslant0} converge aussi (et les limites sont fatalement égales). Davantage de détails à lire ici.

Le théorème de sommation des équivalents apporte une généralisation au lemme de Cesàro :

Si les suites à termes positifs \left(x_{n}\right)_{n\geqslant0} et \left(y_{n}\right)_{n\geqslant0} sont équivalentes, alors les séries {\displaystyle \sum_{n\geqslant0}x_{n}} et {\displaystyle \sum_{n\geqslant0}y_{n}} sont de même nature; en outre :

  • En cas de convergence :

        \[\sum_{k=n}^{\infty}x_{k}\sim\sum_{k=n}^{\infty}y_{k}\]

  • En cas de divergence :

        \[\sum_{k=0}^{n}x_{k}\sim\sum_{k=0}^{n}y_{k}\]

En supposant la convergence de la suite \left(x_{n}\right)_{n\geqslant0} vers une limite L>0 et en choisissant y_{n}=L, on retrouve le lemme de Cesàro énoncé au début.

Signalons aussi le :

Lemme de Cesàro, version continue

Etant donnée une application continue f:\left[0,+\infty\right[\rightarrow\mathbb{R}, si f admet en +\infty une limite L (finie ou non) alors :
\displaystyle{\lim_{x\rightarrow+\infty}\frac{1}{x}\int_{0}^{x}\thinspace f\left(t\right)\thinspace dt=L}

Là encore, la réciproque est fausse. Par exemple :

\displaystyle{\frac{1}{x}\int_{0}^{x}\cos\left(t\right)\thinspace dt=\frac{\sin\left(x\right)}{x}\underset{x\rightarrow\infty}{\rightarrow}0}

mais la fonction cosinus ne possède pas de limite en +\infty.

Un article dédié à l’histoire du lemme de Cesàro est consultable ici.

COMMUTATIVITÉ

Une opération \star définie sur un ensemble E est dite commutative lorsque

    \[\forall\left(x,y\right)\in E^2,\,x\star y=y\star x\]

autrement dit lorsque l’ordre dans lequel on combine les éléments est sans importance.

Par exemple, sont commutatives les opérations suivantes :

  • addition et multiplication dans \mathbb{Z}
  • union et intersection dans \mathcal{P}(E) (ensemble des parties de E)
  • pgcd et ppcm dans \mathbb{N}^\star

En revanche, les opérations ci-dessous ne sont pas commutatives :

  • soustraction dans \mathbb{Z}
  • division dans \mathbb{R}-\{0\}

En effet : 3-2=1\neq-1=2-3 et 4\div2=2\neq\dfrac12=2\div4

Un groupe dont l’opération est commutative est dit abélien.

COMPACT

Un espace topologique X est dit compact s’il est séparé (pour tout couple \left(x,y\right) de points distincts de X, on peut trouver deux ouverts V,W disjoints, tels que x\in V et y\in W) et si l’on peut extraire de tout recouvrement ouvert de X un sous-recouvrement fini.

Cette dernière condition signifie que pour toute famille \left(\Omega_{i}\right)_{i\in I} d’ouverts vérifiant {\displaystyle X=\bigcup_{i\in I}\Omega_{i}}, il existe J\subset I, tel que J est fini et {\displaystyle X=\bigcup_{i\in J}\Omega_{i}}.

On peut montrer que, pour un espace métrique X (et, en particulier pour un espace vectoriel normé), cette définition équivaut à la suivante (appelée compacité séquentielle) : de toute suite à termes dans X, on peut extraire une sous-suite convergente.

Etant donné d’un espace métrique X :

  • toute partie compacte de X est fermée.
  • si X est compact, alors toute partie fermée de X est compacte.
  • si \left(K_{n}\right)_{n\geqslant1} est une suite décroissante de parties compactes non vides, alors {\displaystyle \bigcap_{n=1}^{\infty}K_{n}\neq\emptyset.}

Etant donnés deux espaces métriques X,Y :

  • si K est une partie compacte de X et si L est une partie compacte de Y, alors K\times L est une partie compacte de X\times Y.
  • si X est compact et si f:X\rightarrow Y est continue, alors f\left\langle X\right\rangle est une partie compacte de Y (énoncé \heartsuit).

Dans un espace vectoriel normé de dimension finie, les parties compactes sont celles qui sont fermées et bornées.

Cas particulier de l’énoncé \heartsuit : toute application continue d’un métrique compact dans \mathbb{R} est bornée et atteint ses bornes. Ceci généralise le théorème selon lequel toute application continue \left[a,b\right]\rightarrow\mathbb{R} est bornée et atteint ses bornes (en effet : un segment est une partie fermée et bornée de \mathbb R, donc un espace compact).

Exemple 1

Etant donné un \mathbb{R}-evn E, notons B sa boule unité fermée et S sa sphère unité. Alors la compacité de B et celle de S sont équivalentes. En effet, si la sphère S est compacte, alors comme l’application :

    \[f:\left[0,1\right]\times S\rightarrow E,\left(t,x\right)\mapsto tx\]

est continue et transforme le compact \left[0,1\right]\times S en B qui est donc aussi compact. Réciproquement, si la boule B est compacte, alors S est compact en tant que partie fermée d’un compact.

Exemple 2

Dans \mathbb{R}^{2}, étant donné un triangle T (enveloppe convexe de trois points A,B,C non alignés), il existe un point M\in T en lequel le produit MA\cdot MB\cdot MC est maximum. Il suffit de voir que T est compact (fermé et borné) et que l’application :

    \[T\rightarrow\mathbb{R},\thinspace M\mapsto MA\cdot MB\cdot MC\]

est continue.

Un espace topologique X est dit compact s’il est séparé (pour tout couple \left(x,y\right) de points distincts de X, on peut trouver deux ouverts V,W disjoints, tels que x\in V et y\in W) et si l’on peut extraire de tout recouvrement ouvert de X un sous-recouvrement fini.

Cette dernière condition signifie que pour toute famille \left(\Omega_{i}\right)_{i\in I} d’ouverts vérifiant {\displaystyle X=\bigcup_{i\in I}\Omega_{i}}, il existe J\subset I, tel que J est fini et {\displaystyle X=\bigcup_{i\in J}\Omega_{i}}.

On peut montrer que, pour un espace métrique X (et, en particulier pour un espace vectoriel normé), cette définition équivaut à la suivante (appelée compacité séquentielle) : de toute suite à termes dans X, on peut extraire une sous-suite convergente.

Etant donné d’un espace métrique X :

  • toute partie compacte de X est fermée.
  • si X est compact, alors toute partie fermée de X est compacte.
  • si \left(K_{n}\right)_{n\geqslant1} est une suite décroissante de parties compactes non vides, alors {\displaystyle \bigcap_{n=1}^{\infty}K_{n}\neq\emptyset.}

Etant donnés deux espaces métriques X,Y :

  • si K est une partie compacte de X et si L est une partie compacte de Y, alors K\times L est une partie compacte de X\times Y.
  • si X est compact et si f:X\rightarrow Y est continue, alors f\left\langle X\right\rangle est une partie compacte de Y (énoncé \heartsuit).

Dans un espace vectoriel normé de dimension finie, les parties compactes sont celles qui sont fermées et bornées.

Cas particulier de l’énoncé \heartsuit : toute application continue d’un métrique compact dans \mathbb{R} est bornée et atteint ses bornes. Ceci généralise le théorème selon lequel toute application continue \left[a,b\right]\rightarrow\mathbb{R} est bornée et atteint ses bornes (en effet : un segment est une partie fermée et bornée de \mathbb R, donc un espace compact).

Exemple 1

Etant donné un \mathbb{R}-evn E, notons B sa boule unité fermée et S sa sphère unité. Alors la compacité de B et celle de S sont équivalentes. En effet, si la sphère S est compacte, alors comme l’application :

    \[f:\left[0,1\right]\times S\rightarrow E,\left(t,x\right)\mapsto tx\]

est continue et transforme le compact \left[0,1\right]\times S en B qui est donc aussi compact. Réciproquement, si la boule B est compacte, alors S est compact en tant que partie fermée d’un compact.

Exemple 2

Dans \mathbb{R}^{2}, étant donné un triangle T (enveloppe convexe de trois points A,B,C non alignés), il existe un point M\in T en lequel le produit MA\cdot MB\cdot MC est maximum. Il suffit de voir que T est compact (fermé et borné) et que l’application :

    \[T\rightarrow\mathbb{R},\thinspace M\mapsto MA\cdot MB\cdot MC\]

est continue.

Exemple 3

Soit E est un \mathbb{R}-evn et soient A,B deux parties de E.

Si A est fermé et si B est compact, alors A+B est fermé. En effet, étant donnée une suite convergente \left(x_{n}\right)_{n\geqslant1} à termes dans A+B, on peut poser, pour tout n : x_{n}=a_{n}+b_{n} avec a_{n}\in A et b_{n}\in B. Comme B est compact, la suite \left(b_{n}\right)_{n\geqslant1} possède une suite extraite \left(b_{\varphi\left(n\right)}\right)_{n\geqslant1} qui converge vers un vecteur \beta\in B.

La suite \left(a_{\varphi\left(n\right)}\right)_{n\geqslant1} est alors convergente (différence de deux suites convergentes) et, en notant \alpha sa limite : \alpha\in A car A est fermé. En notant \lambda la limite de \left(x_{n}\right)_{n\geqslant1}, qui est aussi celle de \left(x_{\varphi\left(n\right)}\right)_{n\geqslant1}, on voit que : \lambda=\alpha+\beta\in A+B.

COMPOSITION (loi o)

Etant donnés trois ensembles A,B,C et deux applications f:A\to B et g:B\to C, on note g\circ f l’application

    \[\boxed{A\to C,x\mapsto g\left(f(x)\right)}\]

On dit que g\circ f est la composée de f par g.

On peut étendre la définition au cas où f:A\to B' avec B'\subset B. Cette condition garantit en effet que l’on peut appliquer g à f(x), pour tout x\in A.

Exemple

Si f et g sont les applications suivantes :

    \[f:\mathbb{N}\to\mathbb{Q}^2,n\mapsto\left(\frac{1}{n+1},\frac{2}{n+2}\right)\]

    \[g:\mathbb{R}^2\to\mathbb{R},(x,y)\mapsto x+2y\]

alors g\circ f est définie par :

    \[g\circ f:\mathbb{N}\to\mathbb{R},n\mapsto\frac{1}{n+1}+\frac{4}{n+2}\]

Une propriété à la fois simple et fondamentale de la composition des applications est son associativité. Cela signifie que s’il est possible de composer f par g et g par h, alors

    \[\left(f\circ g\right)\circ h=f\circ\left(g\circ h\right)\]

Signalons pour finir que si u,v sont deux applications d’un ensemble E dans lui-même, alors il se peut que u\circ v=v\circ u (mais ce n’est pas vrai en général).
On dit alors que u et v commutent.

Etant donnés trois ensembles A,B,C et deux applications f:A\to B et g:B\to C, on note g\circ f l’application

    \[\boxed{A\to C,x\mapsto g\left(f(x)\right)}\]

On dit que g\circ f est la composée de f par g.

On peut étendre la définition au cas où f:A\to B' avec B'\subset B. Cette condition garantit en effet que l’on peut appliquer g à f(x), pour tout x\in A.

Exemple

Si f et g sont les applications suivantes :

    \[f:\mathbb{N}\to\mathbb{Q}^2,n\mapsto\left(\frac{1}{n+1},\frac{2}{n+2}\right)\]

    \[g:\mathbb{R}^2\to\mathbb{R},(x,y)\mapsto x+2y\]

alors g\circ f est définie par :

    \[g\circ f:\mathbb{N}\to\mathbb{R},n\mapsto\frac{1}{n+1}+\frac{4}{n+2}\]

Une propriété à la fois simple et fondamentale de la composition des applications est son associativité. Cela signifie que s’il est possible de composer f par g et g par h, alors

    \[\left(f\circ g\right)\circ h=f\circ\left(g\circ h\right)\]

Signalons pour finir que si u,v sont deux applications d’un ensemble E dans lui-même, alors il se peut que u\circ v=v\circ u (mais ce n’est pas vrai en général).
On dit alors que u et v commutent.

Exemple

Si (p,q)\in\mathbb{N}^2, alors les polynômes de Tchebytchev de première espèce T_p et T_q commutent. En effet, pour tout \theta\in\mathbb{R} :

    \begin{eqnarray*}\left(T_p\circ T_q\right)(\cos(\theta)) & = & T_p\left(T_q(\cos(\theta))\right)\\& = & T_p\left(\cos(q\theta)\right)\\& = & \cos(pq\theta)\\& = & T_q\left(\cos(p\theta)\right)\\& = & T_q\left(T_p(\cos(\theta))\right)\\& = & \left(T_q\circ T_p\right)(\cos(\theta))\end{eqnarray*}

Ceci prouve que les polynômes T_p\circ T_q et T_q\circ T_p sont égaux puisqu’ils coïncident sur l’ensemble [-1,1] qui est infini.

CONVERGENCE (d’une suite)

Une suite réelle u est dite convergente lorsqu’il existe un réel L tel que :

    \[\begin{array}{c}\forall\epsilon>0,\thinspace\exists N\in\mathbb{N};\thinspace\forall n\in\mathbb{N}\\n\geqslant N\Rightarrow\left|u_{n}-L\right|\leqslant\epsilon\end{array}\]

Cette condition signifie que l’écart entre le n-ème terme de la suite et L peut être rendu arbitrairement petit (plus petit que n’importe quel \epsilon>0) à condition que l’indice n soit assez grand.

Le réel L est alors unique. C’est la limite de u, notée \lim u ou bien {\displaystyle \lim_{n\rightarrow\infty}u_{n}.}

Une suite non convergente est dite divergente.

Tout ce qui précède se généralise sans aucune difficulté à un espace vectoriel normé, en remplaçant valeur absolue par norme …

Exemple 1

La suite de terme général :

    \[\boxed{u_{n}=\frac{2n+\left(-1\right)^{n}}{n+1}}\]

converge vers 2. En effet, pour tout n\in\mathbb{N} :

    \begin{eqnarray*}u_{n}-2 & = & \frac{\left(-1\right)^{n}-2}{n+1}\end{eqnarray*}

donc :

    \[\left|u_{n}-2\right|\leqslant\frac{3}{n+1}\]

Etant donné \epsilon>0, posons :

    \[N=\max\left\{ \left\lceil \frac{3}{\epsilon}\right\rceil -1,0\right\}\]

Alors n\in\mathbb{N} et la condition n\geqslant N entraîne \left|u_{n}-2\right|\leqslant\epsilon.

Exemple 2

La suite de terme général :

    \[\boxed{u_{n}=\left(-1\right)^{n}}\]

est divergente.

En effet, supposons le contraire, notons L sa limite et fixons un réel \epsilon\in\left]0,1\right[.

Il existerait N\in\mathbb{N} tel que :

    \[\forall n\geqslant N,\thinspace\left|\left(-1\right)^{n}-L\right|\leqslant\epsilon\]

On verrait alors, en choisissant n pair tel que n\geqslant N, que :

    \[\left|1-L\right|\leqslant\epsilon\]

et de même, en choisissant n impair tel que n\geqslant N, que :

    \[\left|1+L\right|\leqslant\epsilon\]

Mais alors, par inégalité triangulaire :

    \begin{eqnarray*}2 & = & \left|\left(1+L\right)+\left(1-L\right)\right|\\ & \leqslant & \left|1+L\right|+\left|1-L\right|\\ & \leqslant & 2\epsilon \end{eqnarray*}

ce qui est absurde.

➡ On peut montrer que toute suite réelle convergente est bornée. Cet exemple montre que la réciproque est fausse.

Exemple 3

La suite de terme général :

    \[\boxed{u_{n}=\left\{ \begin{array}{cc}2^{-n} & \text{si }n\text{ est pair}\\0 & \text{sinon}\end{array}\right.}\]

converge vers 0. En effet, pour tout n\in\mathbb{N} :

    \begin{eqnarray*}\left|u_{n}-0\right| & = & u_{n}\\ & \leqslant & 2^{-n}\\ & \underset{\star}{\leqslant} & \frac{1}{n+1}\end{eqnarray*}

donc, étant donné \epsilon>0, on aura \left|u_{n}\right|\leqslant\epsilon dès que n\geqslant\left\lceil \frac{1}{\epsilon}\right\rceil -1.

L’inégalité \star équivaut à 2^{n}\geqslant n+1, qui se prouve aisément par récurrence.

➡ Cet exemple montre qu’une suite peut converger, sans être monotone (et même : en n’étant monotone à partir d’aucun rang). Cependant :

Théorème (limite monotone)

Toute suite réelle, croissante et majorée (ou décroissante et minorée) converge.

Toutes les opérations raisonnables entre suites réelles convergentes produisent de nouvelles suites convergentes. Notamment :

  • la somme de deux suites convergentes converge vers la somme de leurs limites.
  • le produit de deux suites convergentes converge vers le produit de leurs limites.
  • si u converge vers L\neq0 alors il existe N\in\mathbb{N} tel que u_{n}\neq0 pour tout n\geqslant N et, de plus, la suite \left(1/u_{n}\right)_{n\geqslant N} converge vers 1/L.
  • si u converge vers L alors la suite de terme général :

        \[ x_{n}=\frac{1}{n}\left(u_{0}+\cdots+u_{n-1}\right)\]

    converge aussi vers L (c’est le lemme de Cesàro).


On dit que la suite réelle u est de Cauchy lorsque :

    \[\begin{array}{c}\forall\epsilon>0,\thinspace\exists N\in\mathbb{N},\thinspace\forall\left(p,q\right)\in\mathbb{N}^{2}\\\left(p\geqslant N\text{ et }q\geqslant N\right)\Rightarrow\left|u_{p}-u_{q}\right|\leqslant\epsilon\end{array}\]

Cette condition est un critère (condition nécessaire et suffisante) de convergence d’une suite réelle. Pour en savoir plus à ce sujet, voir cet article, où les notions de suite convergente et de suite de Cauchy sont présentées dans un cadre plus général.

CONVEXE (fonction)

Soit I un intervalle non trivial. Une application f:I\rightarrow\mathbb{R} est dite convexe lorsque :

    \[\begin{array}{c}\forall\left(a,b\right)\in I^{2},\thinspace\forall t\in\left[0,1\right],\\f\left(\left(1-t\right)a+tb\right)\leqslant\left(1-t\right)\thinspace f\left(a\right)+t\thinspace f\left(b\right)\end{array}\]

Ceci s’interprète géométriquement en disant que la portion du graphe de f limitée par les points d’abscisses a et b est en dessous de la corde (= segment joignant ces deux points).

On dit que f est concave lorsque -f est convexe, ce qui revient à renverser l’inégalité de définition.

Les applications affines sont, si l’on peut dire, à l’interface entre l’ensemble des applications convexes et celui des applications concaves (elles en forment l’intersection).

On peut montrer que si f est convexe, alors f est continue en tout point intérieur à I. Mieux, f est en fait dérivable à gauche et à droite en un tel point.

Si f est dérivable, alors :

    \[\boxed{f\text{ convexe}\Leftrightarrow f'\text{ croissante}}\]

Donc, si f est deux fois dérivable, alors :

    \[\boxed{f\text{ convexe}\Leftrightarrow f''\geqslant0}\]

et si f'' s’annule et change de signe en a\in I, alors son graphe \Gamma traverse localement sa tangente. On dit que \Gamma présente une inflexion en \left(a,f\left(a\right)\right). L’illustration ci-dessous montre quelques points d’inflexion et la tangente en l’un d’eux.

Exemples

Les applications \mathbb{R}\rightarrow\mathbb{R},\thinspace x\mapsto x^{2n} pour n\in\mathbb{N} ainsi que \mathbb{R}\rightarrow\mathbb{R},\thinspace x\mapsto a^{x} pour a>1 sont convexes.

Le logarithme népérien est concave sur \left]0,+\infty\right[.

Pour tout n\in\mathbb{Z}, l’application \mathbb{R}\rightarrow\mathbb{R},\thinspace x\mapsto\sin\left(x\right) est convexe sur chaque \left[\left(2n-1\right)\pi,2n\pi\right] et concave sur chaque \left[2n\pi,\left(2n+1\right)\pi\right].

Si f est dérivable est convexe, alors :

    \[\boxed{\forall\left(a,x\right)\in I^{2},\thinspace f\left(x\right)\geqslant f'\left(a\right)\left(x-a\right)+f\left(a\right)}\]

ce qui s’interprète géométriquement en disant que le graphe de f est situé au-dessus de chacune de ses tangentes. Pour f concave, cette inégalité est renversée.

Comme l’exponentielle est convexe, alors :

    \[\forall x\in\mathbb{R},\thinspace e^{x}\geqslant1+x\]

Et comme le sinus est concave sur \left[0,\pi\right] :

    \[ \forall x\in\left[0,\pi\right],\thinspace\sin\left(x\right)\leqslant x\]

Bien entendu, ces deux inégalités peuvent être établies directement par l’étude des variations d’une fonction (et la seconde est en fait valable pour tout x\geqslant0).

Soit I un intervalle non trivial. Une application f:I\rightarrow\mathbb{R} est dite convexe lorsque :

    \[\begin{array}{c}\forall\left(a,b\right)\in I^{2},\thinspace\forall t\in\left[0,1\right],\\f\left(\left(1-t\right)a+tb\right)\leqslant\left(1-t\right)\thinspace f\left(a\right)+t\thinspace f\left(b\right)\end{array}\]

Ceci s’interprète géométriquement en disant que la portion du graphe de f limitée par les points d’abscisses a et b est en dessous de la corde (= segment joignant ces deux points).

On dit que f est concave lorsque -f est convexe, ce qui revient à renverser l’inégalité de définition.

Les applications affines sont, si l’on peut dire, à l’interface entre l’ensemble des applications convexes et celui des applications concaves (elles en forment l’intersection).

On peut montrer que si f est convexe, alors f est continue en tout point intérieur à I. Mieux, f est en fait dérivable à gauche et à droite en un tel point.

Si f est dérivable, alors :

    \[\boxed{f\text{ convexe}\Leftrightarrow f'\text{ croissante}}\]

Donc, si f est deux fois dérivable, alors :

    \[\boxed{f\text{ convexe}\Leftrightarrow f''\geqslant0}\]

et si f'' s’annule et change de signe en a\in I, alors son graphe \Gamma traverse localement sa tangente. On dit que \Gamma présente une inflexion en \left(a,f\left(a\right)\right). L’illustration ci-dessous montre quelques points d’inflexion et la tangente en l’un d’eux.

Exemples

Les applications \mathbb{R}\rightarrow\mathbb{R},\thinspace x\mapsto x^{2n} pour n\in\mathbb{N} ainsi que \mathbb{R}\rightarrow\mathbb{R},\thinspace x\mapsto a^{x} pour a>1 sont convexes.

Le logarithme népérien est concave sur \left]0,+\infty\right[.

Pour tout n\in\mathbb{Z}, l’application \mathbb{R}\rightarrow\mathbb{R},\thinspace x\mapsto\sin\left(x\right) est convexe sur chaque \left[\left(2n-1\right)\pi,2n\pi\right] et concave sur chaque \left[2n\pi,\left(2n+1\right)\pi\right].

Si f est dérivable est convexe, alors :

    \[\boxed{\forall\left(a,x\right)\in I^{2},\thinspace f\left(x\right)\geqslant f'\left(a\right)\left(x-a\right)+f\left(a\right)}\]

ce qui s’interprète géométriquement en disant que le graphe de f est situé au-dessus de chacune de ses tangentes. Pour f concave, cette inégalité est renversée.

Comme l’exponentielle est convexe, alors :

    \[\forall x\in\mathbb{R},\thinspace e^{x}\geqslant1+x\]

Et comme le sinus est concave sur \left[0,\pi\right] :

    \[ \forall x\in\left[0,\pi\right],\thinspace\sin\left(x\right)\leqslant x\]

Bien entendu, ces deux inégalités peuvent être établies directement par l’étude des variations d’une fonction (et la seconde est en fait valable pour tout x\geqslant0).

Pour aller plus loin …

La notion d’application convexe se généralise.
Soit E un \mathbb{R}-espace vectoriel et A une partie convexe de E. Une application u:A\rightarrow\mathbb{R} est dite convexe lorsque :

    \[\begin{array}{c}\forall\left(a,b\right)\in A^{2},\thinspace\forall t\in\left[0,1\right]\\u\left(\left(1-t\right)a+tb\right)\leqslant\left(1-t\right)\thinspace u\left(a\right)+t\thinspace u\left(b\right)\end{array}\]

CONVEXE (partie)

Etant donné un \mathbb{R}-espace vectoriel E, une partie A de E est dite convexe lorsque :

    \[\boxed{\begin{array}{c}\forall\left(a,b\right)\in A^{2},\thinspace\forall t\in\left[0,1\right]\\\left(1-t\right)a+tb\in A\end{array}}\]

Ceci s’interprète géométriquement en disant que le segment joignant a et b est inclus dans A dès que a et b appartiennent à A.

Par définition, le segment joignant deux vecteurs a,b est l’ensemble

    \[\left[a,b\right]=\left\{ \left(1-t\right)a+tb;\thinspace t\in\left[0,1\right]\right\}\]

Les parties convexes de \mathbb{R} sont les intervalles.

Tout sous espace affine (et, en particulier, tout sous-espace vectoriel) de E est convexe, de même que l’image directe ou réciproque d’une partie convexe par une application affine.

L’intersection d’une famille quelconque de parties convexes de E est encore convexe. Ceci permet d’ailleurs de définir l’enveloppe convexe d’une partie quelconque X de E comme l’intersection de la famille des parties convexes qui contiennent X.

➡ On suppose maintenant que E est muni d’une norme.

  • Toute boule (ouverte ou fermée), pour une quelconque norme sur E, est une partie convexe (ceci généralise ce qui a été dit plus haut au sujet des intervalles de \mathbb{R}).
  • L’adhérence et l’intérieur d’une partie convexe sont encore convexes.
  • La distance à une partie non vide A est définie par :

        \[E\rightarrow\mathbb{R}^{+},\thinspace x\mapsto d_{A}\left(x\right)=\inf\left\{ \left\Vert x-a\right\Vert ;\thinspace a\in A\right\}\]

    Si A est convexe, alors l’application d_A est convexe.

CORPS

Un corps est un anneau commutatif non nul, dont les éléments non nuls sont tous inversibles.

Autrement dit, un corps est un triplet \left(\mathbb{K},+,\times\right)\mathbb{K} est un ensemble comportant au moins deux éléments, muni de deux opérations + et \times vérifiant les conditions suivantes :

  • \left(\mathbb{K},+\right) est un groupe (donc l’élément neutre est noté 0)
  • \times est associative, commutative et distributive sur +
  • il existe un élément neutre pour \times, noté 1
  • tout élément de \mathbb{K}-\left\{ 0\right\} est inversible pour \times

Les exemples les plus courants de corps sont :

  • le corps \mathbb{Q} des nombres rationnels
  • le corps \mathbb{R} des nombres réels
  • le corps \mathbb{C} des nombres complexes

Tout corps est un anneau intègre, mais la réciproque est fausse. Par exemple \left(\mathbb{Z},+,\times\right) est un anneau intègre, mais ses seuls éléments inversibles sont -1 et 1. Cependant, tout anneau intègre fini est un corps.

Etant donné un entier n\geqslant2, l’anneau quotient \left(\mathbb{Z}/n\mathbb{Z},+,\times\right) est un corps lorsque n est un nombre premier.

Le cardinal d’un corps fini est de la forme p^{d}p est premier et d\geqslant1. Réciproquement, pour tout nombre premier p et pour tout entier d\geqslant1, il existe un corps de cardinal p^{d} et deux tels corps sont isomorphes.

La caractéristique d’un corps \mathbb{K} est l’unique entier p tel que p\mathbb{Z} soit le noyau de l’unique morphisme d’anneaux \mathbb{Z}\rightarrow\mathbb{K}. Cet entier est 0 ou bien un nombre premier.

Les seuls idéaux d’un corps \mathbb{K} sont l’idéal nul et \mathbb{K}. Réciproquement, si les seuls idéaux d’un anneau commutatif (non nul) A sont \left\{ 0\right\} et A, alors A est un corps.

Tout anneau intègre peut être plongé dans un corps, appelé son corps de fractions. Le corps des fractions de \mathbb{Z} est \mathbb{Q}. Le corps des fractions de l’anneau \mathbb{K}\left[X\right] des polynômes à coefficients dans \mathbb{K} est le corps \mathbb{K}\left(X\right) des fractions rationnelles.

Etant donnés un corps \mathbb{L}, un sous-corps \mathbb{K} de \mathbb{L} et une partie A de \mathbb{L}, on note \mathbb{K}\left(A\right) le sous-corps de \mathbb{L} engendré par \mathbb{K}\cup A. Par exemple : \mathbb{C}=\mathbb{R}\left(i\right).

Le sous-anneau de \mathbb{L} engendré par \mathbb{K} et A est noté \mathbb{K}\left[A\right]. Par exemple : \mathbb{Z}\left[i\right]=\left\{ a+bi;\thinspace\left(a,b\right)\in\mathbb{Z}^{2}\right\} est l’anneau des entiers de Gauss.

CROISSANCES COMPAREES

En gros, la propriété dite des « croissances comparées » exprime la domination, à l’infini, de la fonction exponentielle sur toute fonction puissance (d’exposant fixe !).

De manière précise, il s’agit du résultat suivant :

Proposition

Pour tout a\in\mathbb{R} :

    \[\lim_{x\rightarrow+\infty}x^{a}\thinspace e^{-x}=0\]

Si l’on suppose connu le fait que :

(\star)   \[\lim_{x\rightarrow+\infty}\dfrac{\ln\left(x\right)}{x}=0\]

(voir par exemple cette vidéo), alors on peut établir cette proposition comme suit. Pour tout x>0 :

    \begin{eqnarray*}\ln\left(x^{a}e^{-x}\right) & = & a\ln\left(x\right)-x\\& = & x\left(a\thinspace\dfrac{\ln\left(x\right)}{x}-1\right)\end{eqnarray*}

D’après \left(\star\right), il vient :

    \[\lim_{x\rightarrow+\infty}\ln\left(x^{a}e^{-x}\right)=-\infty\]

d’où le résultat, par composition des limites.

Avec un ordinateur, il convient d’être prudent lorsqu’on trace le graphe de x\mapsto x^{a}\thinspace e^{-x} pour un exposant a « assez grand » .

Par exemple, voici ce qu’on obtient pour a=10 et un tracé sur l’intervalle \left[0,10\right] :

On n’a pas l’impression de voir le graphe d’une fonction qui tend vers 0 en l’infini … ce qui est pourtant le cas ! Mais voici ce que donne le tracé de la même fonction sur \left[0,25\right] :

Cette fois, le dessin correspond mieux à ce qu’on attend. Et il ne faut pas s’étonner, sur ce second dessin, de ne pas voir le maximum : il ne peut pas être visible à cette échelle ! En effet la dérivée de x\mapsto x^{10}e^{-x} est x\mapsto x^{9}e^{-x}\left(10-x\right) et le maximum est donc atteint pour x=10. Il vaut 10^{10}e^{-10}\simeq454\thinspace000.

Partager cet article