Comment caractériser les bases orthonormales ?

Un espace préhilbertien réel (EPHR) E est un \mathbb{R}-espace vectoriel qu’on a muni d’un produit scalaire. Si cette notion n’est pas claire, on pourra se reporter à cet article, dont la première section contient les rappels nécessaires.

Le produit scalaire de deux vecteurs x,y\in E sera noté \left(x\mid y\right).

Si E est en outre de dimension finie, on parle plutôt d’espace vectoriel euclidien (EVE).

Dans un EVE de dimension n, une base \left(e_{1},\cdots,e_{n}\right) est dite orthonormale (BON en abrégé) si elle est formée de vecteurs unitaires (càd : de norme 1) et deux à deux orthogonaux. Il revient au même de dire qu’il s’agit d’une famille orthonormale et génératrice de E, puisque « orthonormale » implique « libre ».

Proposition

Si \left(e_{1},\cdots,e_{n}\right) est une BON de l’EVE E, alors :

(A)   \[\forall x\in E,\thinspace x=\sum_{i=1}^{n}\left(x\mid e_{i}\right)e_{i}\]

Autrement dit : les coordonnées d’un vecteur x dans une BON sont les produits scalaire de x par les vecteurs de base.

En effet, on peut décomposer tout vecteur x\in E dans la base \left(e_{1},\cdots,e_{n}\right) sous la forme :

    \[x=\sum_{k=1}^{n}x_{k}e_{k}\]

En effectuant le produit scalaire de chaque membre par e_{i}, pour un quelconque i\in\left\llbracket 1,n\right\rrbracket , il vient (en utilisant le symbole de Kronecker) :

    \[\left(x\mid e_{i}\right)=\sum_{k=1}^{n}x_{k}\left(e_{k}\mid e_{i}\right)=\sum_{k=1}^{n}x_{k}\delta_{k,i}=x_{i}\]

d’où le résultat.

Corollaire

Si \left(e_{1},\cdots,e_{n}\right) est une BON de l’EVE E, alors :

(B)   \[\forall x\in E,\thinspace\left\Vert x\right\Vert ^{2}=\sum_{i=1}^{n}\left(x\mid e_{i}\right)^{2}\]

En partant de l’assertion (A) et en effectuant le produit scalaire de chaque membre par x, on obtient directement (B). On peut aussi utiliser la formule de Pythagore (le carré de la norme d’une somme de vecteurs deux à deux orthogonaux est égale à la somme des carrés des normes de ces vecteurs); pour tout x\in E :

    \[\left\Vert x\right\Vert ^{2}=\left\Vert \sum_{i=1}^{n}\left(x\mid e_{i}\right)e_{i}\right\Vert ^{2}=\sum_{i=1}^{n}\left(x\mid e_{i}\right)^{2}\left\Vert e_{i}\right\Vert ^{2}=\sum_{i=1}^{n}\left(x\mid e_{i}\right)^{2}\]


A présent, étant donné un EPHR E et une famille \left(e_{1},\cdots,e_{n}\right) de vecteurs de E, on va s’interroger sur les réciproques de la proposition et de son corollaire :

  • Les assertions (A) ou (B) suffisent-elles pour entraîner que \left(e_{1},\cdots,e_{n}\right) est une BON de E ?
  • Et si tel n’est pas le cas, que peut-on supposer de plus pour atteindre cette conclusion ?

1 – Réciproque de (A)

Proposition

Soit E un EVE de dimension n\geqslant1 et soit \left(e_{1},\cdots,e_{n}\right) une famille de vecteurs de E vérifiant :

    \[\forall x\in E,\,x=\sum_{i=1}^{n}\,\left(x\mid e_{i}\right)e_{i}\]

Alors \left(e_{1},\cdots,e_{n}\right) est une BON de E.

Par hypothèse, tout vecteur de E est combinaison linéaire de e_{1},\cdots,e_{n}. Autrement dit, la famille \beta=\left(e_{1},\cdots,e_{n}\right) est génératrice de E. Mais comme \dim\left(E\right)=n, c’est en fait une base de E.

En remplaçant x par e_{j}, on obtient pour tout j\in\left\llbracket 1,n\right\rrbracket :

    \[e_{j}=\sum_{i=1}^{n}\left(e_{j}\mid e_{i}\right)e_{i}\]

c’est-à-dire :

    \[\left(\left\Vert e_{j}\right\Vert ^{2}-1\right)e_{j}+\sum_{{1\leqslant i\leqslant n\atop i\neq j}}\left(e_{j}\mid e_{i}\right)e_{i}=0_{E}\]

Comme \beta est libre, il s’ensuit que :

    \[\left\Vert e_{j}\right\Vert =1\qquad\text{et}\qquad\forall i\in\left\llbracket 1,n\right\rrbracket -\left\{ j\right\} ,\thinspace e_{i}\bot e_{j}\]

Les vecteurs e_{1},\cdots,e_{n} sont donc unitaires et deux à deux orthogonaux : \beta est une BON de E.

Remarque

Dans cette proposition, on a supposé que E était de dimension n et que la famille était constituée de n vecteurs … le même entier n. Sans cette hypothèse, on peut toujours affirmer que \beta est génératrice de E (et donc que E est de dimension finie), mais \beta n’a aucune raison d’être libre. Un exemple de cette situation est obtenu en prenant E=\mathbb{R}, le produit scalaire étant alors simplement la multiplication des nombres réels. Si l’on pose :

    \[e_{1}=\dfrac{1}{2},\quad e_{2}=\dfrac{\sqrt{3}}{2}\]

alors, pour tout x\in\mathbb{R}, il est clair que :

    \[x=\left(x\cdot\dfrac{1}{2}\right)\dfrac{1}{2}+\left(x\cdot\dfrac{\sqrt{3}}{2}\right)\dfrac{\sqrt{3}}{2}\]

et donc que l’assertion (A) est vérifiée. Pourtant \left(e_{1},e_{2}\right) n’est évidemment pas une base de \mathbb{R} (vu que \mathbb{R} est de dimension 1), les « vecteurs » e_{1} et e_{2} ne sont pas unitaires et leur « produit scalaire » n’est pas nul non plus …

Ajoutons qu’on a aussi, pour tout x\in\mathbb{R} :

    \[x^{2}=\left(x\cdot\dfrac{1}{2}\right)^{2}+\left(x\cdot\dfrac{\sqrt{3}}{2}\right)^{2}\]

L’assertion (B) n’entraîne donc pas non plus, à elle seule, que \left(e_{1},\cdots,e_{n}\right) soit une BON de E.

2 – Réciproque (B) sans hypothèse de dimension

Proposition

Soient E un EPHR (aucune hypothèse de dimension) et \left(e_{1},\cdots,e_{n}\right) une famille de vecteurs de E. On suppose que :

    \[\forall x\in E,\,\left\Vert x\right\Vert ^{2}=\sum_{i=1}^{n}\,\left(x\mid e_{i}\right)^{2}\]

et

    \[\forall i\in\left\llbracket 1,n\right\rrbracket ,\thinspace\left\Vert e_{i}\right\Vert \geqslant1\]

Alors \left(e_{1},\cdots,e_{n}\right) est une BON de E.

Soit j\in\left\llbracket 1,n\right\rrbracket . Par hypothèse :

    \[\left\Vert e_{j}\right\Vert ^{2}=\sum_{i=1}^{n}\,\left(e_{j}\mid e_{i}\right)^{2}=\left\Vert e_{j}\right\Vert ^{4}+\sum_{{1\leqslant i\leqslant n\atop i\neq j}}\,\left(e_{j}\mid e_{i}\right)^{2}\geqslant\left\Vert e_{j}\right\Vert ^{4}\]

ce qui prouve que \left\Vert e_{j}\right\Vert \leqslant1. Et comme \left\Vert e_{j}\right\Vert \geqslant1 par hypothèse, alors \left\Vert e_{j}\right\Vert =1. Du coup :

    \[\sum_{{1\leqslant i\leqslant n\atop i\neq j}}\,\left(e_{j}\mid e_{i}\right)^{2}=0\]

d’où la nullité de chaque terme de cette somme. Bref, les vecteurs e_{1},\cdots,e_{n} sont unitaires et deux à deux orthogonaux.

La famille \left(e_{i}\right)_{1\leqslant i\leqslant n} est donc orthonormale (et, en particulier, libre).

On peut montrer qu’elle est aussi génératrice de E, de deux manières :

Méthode 1

Notons F le sev de E engendré par e_{1},\cdots,e_{n}. Pour tout x\in F^{\bot} :

    \[\left\Vert x\right\Vert ^{2}=\sum_{i=1}^{n}\,\left(x\mid e_{i}\right)^{2}=0\]

donc F^{\bot}=\left\{ 0_{E}\right\} . Comme F est de dimension finie, le théorème du supplémentaire orthogonal s’applique : E=F\oplus F^{\bot} et donc E=F. La famille \left(e_{i}\right)_{1\leqslant i\leqslant n} est donc bien génératrice de E.

Méthode 2

Soit x\in E. On souhaite montrer que x est combinaison linéaire de e_{1},\cdots,e_{n}. Si tel est le cas, on aura nécessairement {\displaystyle x=\sum_{i=1}^{n}\left(x\mid e_{i}\right)e_{i}} puisque \left(e_{1},\cdots,e_{n}\right) est une famille orthonormale. Il est donc naturel d’essayer de prouver que le vecteur \displaystyle { x-\sum_{i=1}^{n}\left(x\mid e_{i}\right)e_{i}} est nul. En développant par bilinéarité et d’après la formule de Pythagore :

    \begin{eqnarray*}\left\Vert x-\sum_{i=1}^{n}\,\left(x\mid e_{i}\right)e_{i}\right\Vert ^{2} & = & \left\Vert x\right\Vert ^{2}-2\left(x\mid\sum_{i=1}^{n}\,\left(x\mid e_{i}\right)e_{i}\right)+\left\Vert \sum_{i=1}^{n}\,\left(x\mid e_{i}\right)e_{i}\right\Vert ^{2}\\& = & \left\Vert x\right\Vert ^{2}-2\,\sum_{i=1}^{n}\,\left(x\mid e_{i}\right)^{2}+\sum_{i=1}^{n}\,\left(x\mid e_{i}\right)^{2}\\& = & \left\Vert x\right\Vert ^{2}-\sum_{i=1}^{n}\,\left(x\mid e_{i}\right)^{2}\\& = & 0\end{eqnarray*}

Ainsi \displaystyle x=\sum_{i=1}^{n}\,\left(x\mid e_{i}\right)e_{i}. On retrouve le fait que \left(e_{1},\cdots,e_{n}\right) est génératrice de E.

➣ En conclusion, \left(e_{1},\cdots,e_{n}\right) est une BON de E.

Remarque

L’espace E n’était pas supposé de dimension finie, mais il s’avère qu’il est de dimension n.

3 – Réciproque de (B), via matrice de Gram

Proposition

Soient E un EVE de dimension n et \left(e_{1},\cdots,e_{n}\right) une famille de vecteurs de E telle que :

    \[\forall x\in E,\,\left\Vert x\right\Vert ^{2}=\sum_{i=1}^{n}\,\left(x\mid e_{i}\right)^{2}\]

Alors \left(e_{1},\cdots,e_{n}\right) est une BON de E.

On sait déjà, en reprenant par exemple la méthode 1 de la section précédente, que \left(e_{1},\cdots,e_{n}\right) est une famille génératrice et donc une base de E. Introduisons la matrice :

    \[G=\left[\left(e_{i}\mid e_{j}\right)\right]_{1\leqslant i,j\leqslant n\}\]

Si l’on prouve qu’il s’agit de la matrice unité, cela signifiera que \left(e_{1},\cdots,e_{n}\right) est une famille orthonormale, donc une BON de E.

En utilisant une formule de polarisation, on voit que pour tout \left(x,y\right)\in E^{2} :

    \begin{eqnarray*}\left(x\mid y\right) & = & \frac{1}{4}\left(\left\Vert x+y\right\Vert ^{2}-\left\Vert x-y\right\Vert ^{2}\right)\\& = & \frac{1}{4}\,\sum_{k=1}^{n}\,\left(\left(x+y\mid e_{k}\right)^{2}-\left(x-y\mid e_{k}\right)^{2}\right)\\& = & \sum_{k=1}^{n}\,\left(x\mid e_{k}\right)\,\left(y\mid e_{k}\right)\end{eqnarray*}

En particulier, si l’on remplace \left(x,y\right) par \left(e_{i},e_{j}\right), il apparaît que :

    \[\forall\left(i,j\right)\in\left\llbracket 1,n\right\rrbracket ^{2},\;\left(e_{i}\mid e_{j}\right)=\sum_{k=1}^{n}\,\left(e_{i}\mid e_{k}\right)\,\left(e_{j}\mid e_{k}\right)\]

ce qui signifie que G^{2}=G. Il reste à montrer que G est inversible pour conclure que G=I_{n}.

Soit donc X=\left(x_{1},\cdots,x_{n}\right)^{\top}\in\mathbb{R}^{n} tel que GX=0, c’est-à-dire tel que :

    \[\forall i\in\left\llbracket 1,n\right\rrbracket ,\thinspace\sum_{j=1}^{n}\left(e_{i}\mid e_{j}\right)x_{j}=0\]

En posant {\displaystyle v=\sum_{j=1}^{n}x_{j}e_{j}}, cette condition devient :

    \[\forall i\in\left\llbracket 1,n\right\rrbracket ,\thinspace\left(e_{i}\mid v\right)=0\]

Ainsi v\in E^{\bot}, donc v=0_{E} et donc X=0. L’inversibilité de G est établie.

Remarque

Autre point de vue : G est la matrice de Gram associée à \left(e_{1},\cdots,e_{n}\right), qui est une famille libre. Donc G est (symétrique) définie positive et, en particulier, inversible.

4 – Réciproque de (B), via Cauchy-Schwarz

On va à nouveau prouver la proposition suivante :

Proposition

Soient E un EVE de dimension n et \left(e_{1},\cdots,e_{n}\right) une famille de vecteurs de E telle que :

    \[\forall x\in E,\,\left\Vert x\right\Vert ^{2}=\sum_{i=1}^{n}\,\left(x\mid e_{i}\right)^{2}\]

Alors \left(e_{1},\cdots,e_{n}\right) est une BON de E.

… mais par un autre chemin.

Le démarrage de la preuve est le même que précedemment : la famille \left(e_{1},\cdots,e_{n}\right) est nécessairement une base de E, puisque d’une part, l’orthogonal du sous-espace qu’elle engendre est nul et, d’autre part, elle comporte n vecteurs avec n=\dim\left(E\right).

Ensuite, comme au début de la section 2, on voit que pour tout j\in\left\llbracket 1,n\right\rrbracket : \left\Vert e_{j}\right\Vert \leqslant1.

Il reste à prouver les inégalités en sens inverse, pour conclure (comme au début de la section 2) que \left(e_{1},\cdots,e_{n}\right) est une BON de E.

Une bonne idée est de faire intervenir l’inégalité de Cauchy-Schwarz (ICS). Rappelons que, pour tout couple \left(x,y\right) de vecteurs de E :

    \[\left|\left(x\mid y\right)\right|\leqslant\left\Vert x\right\Vert \thinspace\left\Vert y\right\Vert\]

Fixons j\in\left\llbracket 1,n\right\rrbracket . Si l’on peut trouver un vecteur x\neq0_{E} qui soit orthogonal à chaque e_{i} pour i\in\left\llbracket 1,n\right\rrbracket -\left\{ j\right\} , on obtiendra (en appliquant l’hypothèse, combinée avec l’ICS) :

    \[\left\Vert x\right\Vert ^{2}=\left(x\mid e_{j}\right)^{2}\leqslant\left\Vert x\right\Vert ^{2}\left\Vert e_{j}\right\Vert ^{2}\]

et donc, après simplification : \left\Vert e_{j}\right\Vert \geqslant1, ce qui permettra de terminer.

Or l’existence d’un tel x est assurée : il suffit de considérer l’hyperplan H=\text{vect}\left\{ e_{i};\thinspace i\in\left\llbracket 1,n\right\rrbracket -\left\{ j\right\} \right\} et de choisir x non nul dans la droite vectorielle H^{\bot}.

Si cet article vous a intéressé, merci de laisser un petit commentaire 🙂

Partager cet article

Laisser un commentaire