Lettre D

DENSE (partie)

Définition

Soient E un espace vectoriel normé et soit A\subset E. On dit que A est dense dans E lorsque tout vecteur de E est la limite d’une suite convergente à termes dans A.

Remarque

Cette définition est présentée ainsi par souci de simplicité. Une version à la fois plus générale et plus officielle serait la suivante :

Soit X un espace topologique et soit A\subset X. On dit que A est dense dans X lorsque \overline{A}=X (le symbole \overline{A} désigne l’adhérence de A dans X).

Et si la topologie de X est métrisable (c’est-à-dire : s’il existe une distance d sur X qui induit sa topologie), alors cette condition équivaut à l’existence, pour tout x\in X, d’une suite \left(a_{n}\right)_{n\in\mathbb{N}} à termes dans A qui converge vers x, c’est-à-dire telle que :

    \[ \lim_{n\rightarrow\infty}d\left(x,a_{n}\right)=0\]

C’est ce qui se passe pour un espace vectoriel normé, la distance étant celle induite par la norme :

    \[\forall\left(x,y\right)\in E^{2},\thinspace d\left(x,y\right)=\left\Vert x-y\right\Vert\]

Exemple 1

Dans \mathbb{R} les parties suivantes sont denses :

  • l’ensemble \mathbb{Q} des rationnels
  • l’ensemble \mathbb{R}-\mathbb{Q} des irrationnels

Exemple 2

Dans \mathcal{M}_{n}\left(\mathbb{C}\right) les parties suivantes sont denses :

  • l’ensemble des matrice inversibles (qui est aussi un ouvert)
  • l’ensemble des matrices diagonalisables

L’un des intérêts de la notion de densité le suivant : pour démontrer une propriété donnée pour chaque élément d’un certain espace, il suffit parfois de l’établir pour les éléments d’une partie dense, puis de passer à la limite. Voici quelques illustrations de cette idée :

  • Si f:\mathbb{R}\rightarrow\mathbb{R} est continue et si f\left(r\right)=0 pour tout r\in\mathbb{Q} alors f=0.
  • Si f\in\mathcal{C}\left(\left[0,1\right],\mathbb{R}\right) vérifie \int_{0}^{1}t^{n}f\left(t\right)\thinspace dt=0 pour tout n\in\mathbb{N} alors f=0. On peut voir (par linéarité) que \int_{0}^{1}P\left(t\right)f\left(t\right)\thinspace dt=0 pour toute fonction polynomiale P, puis raisonner par densité grâce au théorème d’approximation uniforme de Weierstrass.
  • Si A,B\in\mathcal{M}_{n}\left(\mathbb{C}\right) alors \text{com}\left(AB\right)=\text{com}\left(A\right)\text{com}\left(B\right). On peut d’abord le prouver pour les couples de matrices inversibles, puis utiliser la continuité de l’application \mathcal{M}_{n}\left(\mathbb{C}\right)^{2}\rightarrow\mathcal{M}_{n}\left(\mathbb{C}\right),\thinspace\left(A,B\right)\mapsto\text{com}\left(AB\right)-\text{com}\left(A\right)\text{com}\left(B\right) et le fait que GL{n}\left(\mathbb{C}\right)^{2} est une partie dense de \mathcal{M}_{n}\left(\mathbb{C}\right)^{2}.
  • Si A\in\mathcal{M}{n}\left(\mathbb{C}\right), alors \det\left(\exp\left(A\right)\right)=e^{\text{tr}\left(A\right)}. On peut prouver cela pour les matrices diagonalisables et utiliser ensuite la continuité du déterminant, de l’exponentielle (complexe et matricielle) et de la trace.

DIAGONALISABLE

Soit E un \mathbb{K}-espace vectoriel de dimension finie et soit u\in\mathcal{L}\left(E\right).

Définition 1

u est dit diagonalisable lorsqu’il existe une base de E formée de vecteurs propres pour u. Dans une telle base, u est représenté par une matrice diagonale, d’où la terminologie.

Définition 2

Une matrice M\in\mathcal{M}_{n}\left(\mathbb{K}\right) est dite diagonalisable dans \mathcal{M}_{n}\left(\mathbb{K}\right) (précision indispensable ! voir exemple ci-dessous) lorsque l’endomorphisme de \mathbb{K}^{n} canoniquement associé à M est diagonalisable.

Ceci revient à dire qu’il existe un couple \left(P,\Delta\right)\in\mathcal{M}_{n}\left(\mathbb{K}\right)^{2} tel que :

    \[P\text{ est inversible}\qquad\Delta\text{ est diagonale}\qquad P\Delta P^{-1}=M\]

Exemple

\left[\begin{array}{cc}0 & -1\\1 & 0\end{array}\right] est diagonalisable dans \mathcal{M}_{2}\left(\mathbb{C}\right) mais pas dans \mathcal{M}_{2}\left(\mathbb{R}\right).

On note \text{sp}(u) le spectre de u et \chi_{u} son polynôme caractéristique.

Pour chaque valeur propre \lambda, on note :

  • d\left(\lambda\right) la dimension du sous-espace propre associé
  • m\left(\lambda\right) la multiplicité de \lambda en tant que racine de \chi_{u}

Théorème 1

u est diagonalisable si, et seulement si, \chi_{u} est scindé dans \mathbb{K}\left[X\right] et de plus :

    \[ \forall\lambda\in\text{sp}\left(u\right),\thinspace d\left(\lambda\right)=m\left(\lambda\right) \]

Corollaire

Si \chi_{u} est scindé dans \mathbb{K}\left[X\right] et à racines simples, alors u est diagonalisable.

Par exemple, l’endomorphisme de \mathbb{R}^{4} canoniquement associé à la matrice triangulaire

    \[A=\left[\begin{array}{cccc}0 & 1 & 1 & 1\\0 & 1 & 1 & 1\\0 & 0 & 2 & 1\\0 & 0 & 0 & 3\end{array}\right]\]

est diagonalisable.

Autre exemple, moins immédiat : toute matrice A\in\mathcal{M}_{n}\left(\mathbb{C}\right) est la limite d’une suite de matrices diagonalisables dans \mathcal{M}_{n}\left(\mathbb{C}\right). Autrement dit, l’ensemble des matrices diagonalisables dans \mathcal{M}_{n}\left(\mathbb{C}\right) est une partie dense de \mathcal{M}_{n}\left(\mathbb{C}\right).

Attention : Le corollaire ci-dessus ne donne qu’une condition suffisante (et pas du tout nécessaire) de diagonalisation. Par exemple, une homothétie est évidemment diagonalisable et possède pourtant une valeur propre multiple (en dimension n\geqslant 2).

Théorème 2

u est diagonalisable si, et seulement s’il existe P\in\mathbb{K}\left[X\right], scindé dans \mathbb{K}\left[X\right] et à racines simples, tel que P\left(u\right)=0.

Par exemple : tout projecteur de E est diagonalisable puisqu’annulé par X^{2}-X; de même (en caractéristique différente de 2) toute symétrie de E est diagonalisable puisqu’annulée par X^{2}-1.

DISTANCE (à une partie)

Définition

Soient un espace vectoriel normé E et une partie non vide A\subset E.

Pour tout x\in E, on note :

    \[d\left(x,A\right)=\inf\left\{ \left\Vert x-a\right\Vert ;\thinspace a\in A\right\}\]

Ce réel positif ou nul est appelé la distance du vecteur x à la partie A.

Remarque

Cette définition s’étend naturellement aux espaces métriques, en remplaçant \left\Vert x-a\right\Vert par la distance entre x et a.

Exemple 1

Dans \mathbb{R}, si a<b, alors pour tout x\in\mathbb{R} :

    \[d\left(x,\left]a,b\right[\right)=\left\{ \begin{array}{cc}a-x & \text{si }x < a\\0 & \text{si }a\leqslant x \leqslant b\\x-b & \text{si }x > b\end{array}\right.\]

Exemple 2

Dans \mathbb{R}^{2} muni de sa norme euclidienne, considérons \left(a,b\right)\in\mathbb{R}^{2} et r>0 et notons D le disque fermé de centre \left(a,b\right) et de rayon r. Alors, pour tout \left(x,y\right)\in\mathbb{R}^{2}, en notant :

    \[\rho=\sqrt{\left(x-a\right)^{2}+\left(y-b\right)^{2}}\]

on a :

    \[d\left(\left(x,y\right),D\right)=\left\{ \begin{array}{cc}0 & \text{si }\rho\leqslant r\\\sqrt{\left(x-a\right)^{2}+\left(y-b\right)^{2}}-r & \text{sinon}\end{array}\right.\]

Dans l’illustration ci-dessous, A est l’union de trois ellipses.

Pour certains points, la distance à A est atteinte une fois, pour d’autres deux fois. Il existe même deux points pour lesquelles elle est atteinte trois fois (on pourrait qualifier ces points de points triples) : l’un d’eux a été représenté; sauriez-vous localiser l’autre ?

distance atteinte 1 fois
distance atteinte 2 fois
distance atteinte 3 fois

Voici quelques résultats de base, à connaître …

1 – Vecteurs à distance nulle. D’une manière générale :

    \[d\left(x,A\right)=0\Leftrightarrow x\in\overline{A}\]

\overline{A} désigne l’adhérence de A.

En particulier, si A est fermé alors les vecteurs qui sont à distance nulle de A sont exactement les éléments de A.

Sans cette hypothèse, il reste que x\in A\Rightarrow d\left(x,A\right)=0 mais l’implication réciproque est fausse. Par exemple, dans \mathbb{R} :

    \[d\left(0,\left]0,1\right]\right)=0\quad\text{bien que } 0\notin\left]0,1\right]\]

2 – Continuité. On peut montrer que l’application

    \[d_{A}:E\rightarrow\mathbb{R},\thinspace x\mapsto d\left(x,A\right)\]

est 1-lipschitzienne, ce qui signifie que :

    \[\forall\left(x,y\right)\in E^{2},\thinspace\left|d\left(x,A\right)-d\left(y,A\right)\right|\leqslant\left\Vert x-y\right\Vert\]

Ceci montre notamment la continuité (et même l’uniforme continuité) de d_{A}.

On peut s’interroger sur la différentiabilité de d_A, mais c’est une question plus délicate, qui fait intervenir les propriétés géométriques et topologiques de A.

3 – Distance atteinte. Si K est un compact de E alors (propriété générale d’une application continue sur un compact et à valeurs réelles), pour tout x\in E, il existe k\in K tel que :

    \[\left\Vert x-k\right\Vert =d\left(x,K\right)\]

En général, le vecteur k n’est pas unique : penser à un cercle \Gamma du plan euclidien et son centre \omega … la distance de \omega à \Gamma, qui est bien sûr égale au rayon, est atteinte une infinité de fois (en tout point de \Gamma).

Et sans hypothèse de compacité, l’existence d’un tel k n’est pas assurée : considérer cette fois un disque ouvert D de centre \omega et de rayon r>0, ainsi qu’un point x extérieur à D. Alors d\left(x,D\right)=\left\Vert x-\omega\right\Vert -r et cette distance n’est pas atteinte.

4 – Projection orthogonale. Dans le cadre des espaces préhilbertiens, le théorème de la projection orthogonale donne des informations sur la distance d’un vecteur à un sous-espace de dimension finie (ou, plus généralement, à une partie non vide, convexe et complète). Voir cet article.

DUPLICATION (trigonométrie)

En trigonométrie circulaire, les formules :

(1)   \[\boxed{\sin\left(2\theta\right)=2\sin\left(\theta\right)\cos\left(\theta\right)}\]

et

(2)   \[\boxed{\cos\left(2\theta\right)=\cos^{2}\left(\theta\right)-\sin^{2}\left(\theta\right)}\]

sont appelées formules de duplication du sinus et du cosinus, respectivement. Elles sont valables pour tout \theta\in\mathbb{R}. Elles doivent leur nom au fait qu’elles permettent de relier les lignes trigonométriques d’un angle à celles de l’angle double (ou de l’angle moitié, selon le point de vue …).

Grâce à la formule fondamentale \cos^{2}\left(\theta\right)+\sin^{2}\left(\theta\right)=1, la relation \left(2\right) peut encore s’écrire :

    \begin{eqnarray*}\cos\left(2\theta\right) & = & 2\cos^{2}\left(\theta\right)-1\end{eqnarray*}

ou encore :

    \begin{eqnarray*}\cos\left(2\theta\right) & = & 1-2\sin^{2}\left(\theta\right)\end{eqnarray*}

Ces deux dernières formules, peuvent à leur tour être ré-écrites comme des formules de linéarisation :

    \[\cos^{2}\left(\theta\right)=\frac{1+\cos\left(2\theta\right)}{2}\]

    \[\sin^{2}\left(\theta\right)=\frac{1-\cos\left(2\theta\right)}{2}\]

Par division membre de \left(1\right) et \left(2\right) on obtient la formule de duplication pour la fonction tangente :

    \[\tan\left(2\theta\right)=\frac{2\tan\left(\theta\right)}{1-\tan^{2}\left(\theta\right)}\]

valable pour tout \theta\in \mathbb{R}-D avec :

    \[D=\left\{ \frac{k\pi}{4};\thinspace k\in\mathbb{Z}\text{ et }k\equiv1,2\text{ ou }3\pmod{4}\right\}\]

On a essentiellement la même chose en trigonométrie hyperbolique. En effet, pour tout x\in\mathbb{R} :

(1′)   \[\boxed{\sinh\left(2x\right)=2\sinh\left(x\right)\cosh\left(x\right)}\]

(2′)   \[\boxed{\cosh\left(2x\right)=\cosh^{2}\left(x\right)+\sinh^{2}\left(x\right)}\]

Là encore, la formule fondamentale \cosh^{2}\left(x\right)-\sinh^{2}\left(x\right)=1 permet de reformuler \left(2'\right) :

    \[\cosh\left(2x\right)=2\cosh^{2}\left(x\right)-1\]

ou bien :

    \[\cosh\left(2x\right)=1+2\sinh^{2}\left(x\right)\]

puis d’en tirer les formules de linéarisation :

    \[\cosh^{2}\left(x\right)=\frac{1+\cosh\left(2x\right)}{2}\]

    \[\sinh^{2}\left(x\right)=\frac{\cosh\left(2x\right)-1}{2}\]

Par division membre à membre de \left(1'\right) et \left(2'\right), on obtient la formule de duplication pour la tangente hyperbolique :

    \[\tanh\left(2x\right)=\frac{2\tanh\left(x\right)}{1+\tanh^{2}\left(x\right)}\]

valable pour tout x\in\mathbb{R}.

Partager cet article
  •  
  •  
  •  
  •