Sur l’orthogonal d’un sous-espace vectoriel

Dans cet article, je vous propose d’examiner une notion qui se situe au carrefour de la géométrie euclidienne, de l’algèbre linéaire et de la topologie des espaces normés.

Le point de départ choisi est un résultat important du cours d’algèbre :

Théorème (du supplémentaire orthogonal)

Soit E est un espace vectoriel réel, muni d’un produit scalaire.

Pour tout sous-espace F de dimension finie :

    \[\boxed{E=F\oplus F^{\bot}}\]

Après quelques rappels préalables, nous donnerons une preuve de ce résultat, puis nous tâcherons d’en explorer un peu les contours.

1 – Produit scalaire et orthogonalité : rapide survol

Dans tout ce qui suit, E désigne un \mathbb{R}-espace vectoriel muni d’un produit scalaire : c’est ce qu’on appelle parfois un espace préhilbertien réel. Si de plus E est de dimension finie, on parle plutôt d’espace vectoriel euclidien.

Si x,y sont deux vecteurs de E, leur produit scalaire est noté \left(x\mid y\right). Rappelons qu’un produit scalaire est une  » forme bilinéaire symétrique définie positive « , ce qui signifie que :

  • [ linéarité à gauche ] pour tous \lambda\in\mathbb{R} et \left(x,x',y\right)\in E^{3} :

        \[\left(\lambda x+x'\mid y\right)=\lambda\left(x\mid y\right)+\left(x'\mid y\right)\]

  • [ symétrie ] pour tout \left(x,y\right)\in E^{2} :

        \[\left(x\mid y\right)=\left(y\mid x\right)\]

  • [ définie positivité ] pour tout x\in E :

        \[\left(x\mid x\right)\geqslant0\]

    avec égalité seulement si x=0_{E}

Linéarité à gauche et symétrie se combinent pour donner la linéarité à droite, d’où la bilinéarité.

L’application :

    \[E\rightarrow\mathbb{R}^{+},\thinspace x\mapsto\sqrt{\left(x\mid x\right)}\underset{\text{def}}{=}\left\Vert x\right\Vert \]

est alors une norme sur E (appelée norme euclidienne).

Lorsque \left(x\mid y\right)=0, les vecteurs x et y sont dits orthogonaux. Une famille orthogonale est, par définition, composée de vecteurs deux à deux orthogonaux.

Quelques résultats fondamentaux :

  • Toute famille orthogonale composée de vecteurs non nuls est libre.
  • Toute famille orthogonale \left(x_{1},\cdots,x_{r}\right) vérifie la formule de Pythagore :

        \[\Vert x_{1}+\cdots+x_{r}\Vert^{2}=\left\Vert x_{1}\right\Vert ^{2}+\cdots+\left\Vert x_{r}\right\Vert ^{2}\]

  • Si E est de dimension finie, alors E possède des bases orthonormales, c’est-à-dire des bases composées de vecteurs unitaires (ie : de norme 1) et deux à deux orthogonaux. En outre, si \left(e_{1},\cdots,e_{n}\right) est une telle base alors pour tout x\in E :

        \[x=\sum_{i=1}^{n}\left(x\mid e_{i}\right)e_{i}\]

    d’où (d’après la formule de Pythagore) :

        \[\left\Vert x\right\Vert ^{2}=\sum_{i=1}^{n}\left(x\mid e_{i}\right)^{2}\]

Si A est une partie quelconque de E, l’orthogonal de A désigne l’ensemble des vecteurs de E qui sont orthogonaux à tout vecteur de A. Il s’agit d’un sous-espace vectoriel de E, qu’on note A^{\bot}.

On vérifie que :

  • E^{\bot}=\left\{0_{E}\right\}
  • si A,B\subset E vérifient A\subset B alors B^{\bot}\subset A^{\bot}
  • pour tout A\subset E : A\subset\left(A^{\bot}\right)^{\bot}

Remarque

Le premier de ces trois points se justifie par le fait que si un vecteur est orthogonal à tout vecteur de E, alors il est en particulier orthogonal à lui-même, donc nul.

Cette petite chose est très couramment utilisée pour prouver une égalité entre vecteurs d’espace préhilbertien. L’exercice qui suit en donne une illustration.

Exercice

On considère un espace euclidien E ainsi qu’une famille \mathcal{V}=\left(v_{1},\cdots,v_{q}\right) de vecteurs de E.

Montrer que si \mathcal{V} est génératrice de E, alors l’endomorphisme

    \[f:E\rightarrow E,\thinspace x\mapsto\sum_{i=1}^{q}\left(x\mid v_{i}\right)v_{i}\]

est bijectif.

Solution proposée (cliquer pour déplier / replier)

Observons que si x\in\ker\left(f\right), alors :

    \begin{equation*}\begin{split}0 & = \left(x\mid f\left(x\right)\right)\\& = \left(x\mid\sum_{i=1}^{q}\left(x\mid v_{i}\right)v_{i}\right)\\& = \sum_{i=1}^{q}\left(x\mid v_{i}\right)^{2}\end{split}\end{equation*}

ce qui impose (somme nulle de termes positifs) que \left(x\mid v_{i}\right)=0 pour tout i\in\left\{1,\cdots,q\right\} . Mais comme \mathcal{V} est génératrice de E, ceci entraîne que \left(x\mid y\right)=0 pour tout y\in E. Ainsi x\in E^{\bot} et donc x=0_{E}. L’injectivité de f est établie et sa bijectivité en découle (via le théorème du rang).

2 – Le théorème du supplémentaire orthogonal

On prouve ici le théorème énoncé dans le préambule de l’article.

Si vous préférez suivre la démonstration détaillée en vidéo, je vous renvoie au troisième épisode d’une séquence consacrée à l’étude des projecteurs :

Les hypothèses indiquent que F est de dimension finie (condition réalisée, en particulier, si E est lui-même de dimension finie). On peut donc considérer une base de F et, tant qu’à faire, une base orthonormale \beta=\left(e_{1},\cdots,e_{r}\right) de F. Bien entendu, r désigne la dimension de F.

On veut prouver que E=F\oplus F^{\bot}, c’est-à-dire que tout vecteur de E peut s’écrire, de manière unique, comme la somme d’un vecteur de F et d’un vecteur de F^{\bot}.

On raisonne par Analyse / Synthèse.

Partie « Analyse »

Soit x\in E. Supposons que x=a+b avec a\in F et b\in F^{\bot}.

On peut exprimer a dans la base \beta :

    \[a=\sum_{i=1}^{r}\lambda_{i}e_{i}\]

puis effectuer le produit scalaire par e_{j}, pour tout j\in\llbracket1,r\rrbracket\} :

    \begin{equation*}\begin{split}\left(x\mid e_{j}\right) & = \left(a\mid e_{j}\right)+\left(b\mid e_{j}\right)\\& = \left[\sum_{i=1}^{r}\lambda_{i}\left(e_{i}\mid e_{j}\right)\right]+\left(b\mid e_{j}\right)\end{split}\end{equation*}

Mais la famille \left(e_{1},\cdots,e_{r}\right) est orthonormale et b\in F^{\bot}; donc :

    \[\left(x\mid e_{j}\right)=\lambda_{j}\]

On a montré que si un couple \left(a,b\right)\in F\times F^{\bot} convient, alors il s’agit nécessairement de :

    \[\left\{\begin{array}{ccc}a & = & {\displaystyle \sum_{i=1}^{r}\left(x\mid e_{i}\right)e_{i}}\\\\b & = & x-{\displaystyle \sum_{i=1}^{r}\left(x\mid e_{i}\right)e_{i}}\end{array}\right.\]

En particulier, l’unicité d’une décomposition est prouvée. Il reste à établir son existence.

Partie « Synthèse »

Réciproquement, si l’on définit a et b par ces formules, alors d’évidence x=a+b et a\in F. Il reste juste à vérifier que b\in F^{\bot}.

Vu que la famille \left(e_{1},\cdots,e_{r}\right) engendre F, il suffit de prouver que \left(b\mid e_{j}\right)=0 pour tout j\in\llbracket1,r\rrbracket.

Or, c’est bien le cas :

    \begin{equation*}\begin{split}\left(b\mid e_{j}\right) & = & \left(x\mid e_{j}\right)-\sum_{i=1}^{r}\left(x\mid e_{i}\right)\left(e_{i}\mid e_{j}\right)\\& = \left(x\mid e_{j}\right)-\left(x\mid e_{j}\right)\\& = 0\end{split}\end{equation*}

Ceci termine la preuve.

3 – Projecteurs orthogonaux

D’une manière générale, lorsqu’un espace vectoriel E se décompose en la somme directe de deux sous-espaces supplémentaires, disons E=A\oplus B, on dispose du projecteur sur A parallèlement à B, qu’on peut noter \pi_{A,B}.

Pour tout x\in E, on sait qu’il existe un unique couple \left(a,b\right)\in A\times B tel que x=a+b. Par définition \pi_{A,B} est l’application de E dans lui-même qui à x associe a.

On vérifie aisément que :

  • \pi_{A,B} est linéaire (c’est un endomorphisme de E)
  • \text{Im}\left(\pi_{A,B}\right)=\ker\left(\pi_{A,B}-id_{E}\right)=A
  • \ker\left(\pi_{A,B}\right)=B
  • \left(\pi_{A,B}\right)^{2}=\pi_{A,B}

Tous ces résultats sont entièrement détaillés dans la vidéo ci-dessous, à laquelle on pourra se reporter si nécessaire :

Dans le cas particulier d’un espace préhilbertien réel E et d’un sous-espace F de dimension finie, on a vu plus haut que E=F\oplus F^{\bot}. On peut donc considérer le projecteur sur F parallèlement à F^{\bot}, c’est-à-dire l’endomorphisme \pi_{F,F^{\bot}}.

C’est ce qu’on appelle le projecteur orthogonal sur F, qu’on note plutôt p_{F}.

Si \left(e_{1},\cdots,e_{r}\right) est une base orthonormale de F, alors :

    \[ \forall x\in E,\thinspace p_{F}\left(x\right)=\sum_{i=1}^{r}\left(x\mid e_{i}\right)e_{i}\]

Ceci a été établi au cours de la preuve du théorème du supplémentaire orthogonal.

On en déduit, d’après la formule de Pythagore :

    \[\left\Vert p_{F}\left(x\right)\right\Vert ^{2}=\sum_{i=1}^{r}\left(x\mid e_{i}\right)^{2}\]

Par ailleurs, les vecteurs p_{F}\left(x\right) et x-p_{F}\left(x\right) sont orthogonaux (le premier appartient à F tandis que le second appartient à F^{\bot}), et donc, toujours avec la formule de Pythagore :

    \[\left\Vert x\right\Vert ^{2}=\left\Vert p_{F}\left(x\right)\right\Vert ^{2}+\left\Vert x-p_{F}\left(x\right)\right\Vert ^{2}\]

Plus généralement, pour tout vecteur y\in F, on peut écrire :

    \[x-y=\left(p_{F}\left(x\right)-y\right)+\left(x-p_{F}\left(x\right)\right)\]

et en déduire, vu que p_{F}\left(x\right)-y\in F et x-p_{F}\left(x\right)\in F^{\bot} :

    \[\left\Vert x-y\right\Vert ^{2}=\left\Vert p_{F}\left(x\right)-y\right\Vert ^{2}+\left\Vert x-p_{F}\left(x\right)\right\Vert ^{2}\]

En particulier :

    \[\boxed{\left\Vert x-y\right\Vert ^{2}\geqslant\left\Vert x-p_{F}\left(x\right)\right\Vert ^{2}}\]

avec égalité si, et seulement si, \left\Vert p_{F}\left(x\right)-y\right\Vert ^{2}=0 c’est-à-dire si y=p_{F}\left(x\right).

Autrement dit :

Théorème (projection orthogonale sur un SEV de dimension finie)

Etant donnés :

  • un espace préhilbertien E,
  • un sous-espace vectoriel F de dimension finie,
  • et un vecteur x\in E,

la distance de x à un vecteur y\in F (qui est mesurée par \left\Vert x-y\right\Vert ) est minimale lorsque y est le projeté orthogonal de x sur F. En symboles :

    \[ \inf_{y\in F}\left\Vert x-y\right\Vert =\left\Vert x-p_{F}\left(x\right)\right\Vert \]

et ce minimum est atteint, seulement pour y=p_{F}\left(x\right).

En outre, si \left(e_{1},\cdots,e_{r}\right) est une base orthonormale de F, alors :

    \[\inf_{y\in F}\left\Vert x-y\right\Vert =\sqrt{\left\Vert x\right\Vert ^{2}-\left\Vert p_{F}\left(x\right)\right\Vert ^{2}}=\sqrt{\left\Vert x\right\Vert ^{2}-\sum_{i=1}^{r}\left(x\mid e_{i}\right)^{2}}\]

Ce résultat est fondamental, car il permet de traiter certains problèmes de recherche de minimum.

Par exemple, le calcul de :

    \[\fcolorbox{black}{myBlue}{$\inf_{\left(a,b,c\right)\in\mathbb{R}^{3}}\int_{0}^{+\infty}\left(t^{3}-at^{2}-bt-c\right)^{2}\thinspace e^{-t}\thinspace dt$}\]

peut être envisagé en considérant :

  • E=\mathbb{R}_{3}\left[X\right], l’espace des polynômes de degré inférieur ou égal à 3,
  • le produit scalaire défini sur E par :

        \[\forall\left(P,Q\right)\in E^{2},\thinspace\left(P\mid Q\right)=\int_{0}^{+\infty}P\left(t\right)Q\left(t\right)e^{-t}\thinspace dt\]

  • le sous-espace F=\mathbb{R}_{2}\left[X\right],
  • le polynôme x=X^{3}

Ce calcul est traité en détail dans la fiche d’exercices n° 1 sur les produits scalaires (exercice n° 8).

4 – Orthogonal d’un hyperplan

Lorsque F n’est plus supposé de dimension finie, la somme F+F^{\bot} est encore directe, car si un vecteur appartient à F\cap F^{\bot}, il est orthogonal à lui-même donc nul. Cependant, l’égalité E=F\oplus F^{\bot} n’est plus vraie en général.

warning-math-os

Nous allons examiner cette situation dans le cas particulier où F est un hyperplan de E (c’est-à-dire un sous-espace possédant une droite supplémentaire).

Si E est de dimension finie, alors d’après le théorème du supplémentaire orthogonal démontré à la section 2 :

    \[\dim\left(F^{\bot}\right)=\dim\left(E\right)-\dim\left(F\right)=1\]

de sorte que F^{\bot} est une droite vectorielle.

Que se passe-t-il si E est de dimension infinie ? La proposition suivante répond à cette question :

Proposition 1

Pour tout hyperplan H d’un espace préhilbertien E, de deux choses l’une :

  • soit H^{\bot} est une droite vectorielle,
  • soit H^{\bot}=\left\{0_{E}\right\}.

En effet, supposons que H^{\bot}\neq\left\{0_{E}\right\} et soit a\in H^{\bot}-\left\{0_{E}\right\} . Fatalement, a\notin H sans quoi a serait orthogonal à lui-même donc nul.

Il en résulte que : E=H\oplus\mathbb{R}a

Avant de poursuivre, détaillons ce point …

On sait qu’il existe b\in E-\{0_E\} tel que E=H\oplus\mathbb{R}b. En particulier, il existe v\in H et \alpha\in\mathbb{R} tels que a=v+\alpha b. Nécessairement, \alpha\neq0 car sinon a\in H : contradiction ! On a donc :

    \[ b=\frac{1}{\alpha}\left(a-v\right)\]

Du coup, lorsqu’on décompose un quelconque vecteur x\in E sous la forme x=w+\gamma b avec w\in H et \gamma\in\mathbb{R}, on peut aussi écrire :

    \[ x=\left(w-\frac{1}{\gamma}v\right)+\frac{1}{\gamma}a\]

ce qui prouve que x\in H\oplus\mathbb{R}a. Finalement, on a bien : E=H\oplus\mathbb{R}a.

Terminons maintenant la preuve.

Comme a\in H^{\bot}, il est clair que \mathbb{R}a\subset H^{\bot}.

Inversement, si x\in H^{\bot} alors en décomposant x sous la forme x=h+\lambda a avec h\in H et \lambda\in\mathbb{R}, on observe (en raison de la stabilité de H^{\bot} par combinaison linéaire) que :

    \[ h=x-\lambda a\in H^{\bot}\]

et donc h\in H\cap H^{\bot}, c’est-à-dire h=0_{E}. Ainsi x\in\mathbb{R}a.

Finalement, si H^{\bot} n’est pas réduit à \left\{0_{E}\right\} , c’est une droite vectorielle.

La proposition 1 est démontrée.

Voyons maintenant deux exemples explicites, illustrant chacun l’une des deux possibilités.

On choisit pour E l’espace vectoriel des applications continues de \left[0,1\right] dans \mathbb{R}, que l’on munit du produit scalaire défini par :

    \[ \forall\left(f,g\right)\in E^{2},\:\left(f\mid g\right)=\int_{0}^{1}f\left(t\right)g\left(t\right)\thinspace dt\]

Exemple 1 : un hyperplan dont l’orthogonal est nul

Considérons le sous-ensemble A de E, constitué des applications qui s’annulent en 0.

A est le noyau de la forme linéaire non nulle E\rightarrow\mathbb{R},\thinspace f\mapsto f\left(0\right). C’est donc un hyperplan de E.

Déterminons A^{\bot}.

Si u\in A^{\bot}, alors :

    \[ \forall f\in A,\thinspace\int_{0}^{1}u\left(t\right)f\left(t\right)\thinspace dt=0\]

On peut penser à choisir f de la manière suivante : on fixe a\in\left]0,1\right[ assez proche de 0 et l’on considère l’application continue qui coïncide avec f sur \left[a,1\right] et dont la restriction à \left[0,a\right] est linéaire. On ferait ensuite tendre a vers 0 pour obtenir \int_{0}^{1}u\left(t\right)^{2}dt=0 et conclure ainsi que u=0.

Voyons une méthode moins géométrique… mais plus rapide (et qui sera généralisée à l’exercice n° 9 de cette fiche) !

Considérons l’application

    \[f\,:\,\left[0,1\right]\rightarrow\mathbb{R},\thinspace t\mapsto t\thinspace u\left(t\right)\]

De toute évidence, f\in A et donc \left(u\mid f\right)=0, c’est-à-dire :

    \[ \int_{0}^{1}t\thinspace u\left(t\right)^{2}\thinspace dt=0\]

L’application \left[0,1\right]\rightarrow\mathbb{R},\thinspace t\mapsto t\thinspace u\left(t\right)^{2} est continue, positive et d’intégrale nulle, donc identiquement nulle (si nécessaire, consulter le corrigé de l’exercice n° 6 de cette fiche).

Ceci prouve que :

\forall t\in \left]0\right.\left.,1\right],\thinspace u\left(t\right)=0

Mais comme u est continue en 0, on a aussi : u\left(0\right)=0. Finalement, u=0 et l’on a prouvé que :

    \[ \boxed{A^{\bot}=\left\{0\right\}}\]

Exemple 2 : un hyperplan dont l’orthogonal est une droite

Considérons le sous-ensemble B de E, constitué des applications dont l’intégrale sur \left[0,1\right] est nulle.

B est le noyau de la forme linéaire non nulle E\rightarrow\mathbb{R},\thinspace f\mapsto\int_{0}^{1}f\left(t\right)\thinspace dt. C’est donc un hyperplan de E.

Déterminons B^{\bot}.

Si u\in B^{\bot}, alors :

    \[ \forall f\in B,\thinspace\int_{0}^{1}u\left(t\right)f\left(t\right)\thinspace dt=0\]

Choisissons pour f l’élément de B obtenu en retranchant à u sa valeur moyenne :

    \[ \forall t\in\left[0,1\right],\thinspace f\left(t\right)=u\left(t\right)-\int_{0}^{1}u\left(x\right)\thinspace dx\]

On a donc :

    \[ \int_{0}^{1}u\left(t\right)\left[u\left(t\right)-\int_{0}^{1}u\left(x\right)\thinspace dx\right]\thinspace dt=0\]

c’est-à-dire :

    \[ \int_{0}^{1}u\left(t\right)^{2}\thinspace dt=\left(\int_{0}^{1}u\left(t\right)\thinspace dt\right)^{2}\qquad\left(\spadesuit\right)\]

Arrêtons-nous un instant, car un rappel s’impose. Il s’agit de la célèbre …

Inégalité de Cauchy-Schwarz

Si E est un espace préhilbertien, alors pour tout couple \left(x,y\right)\in E^{2} :

    \[ \left|\left(x\mid y\right)\right|\leqslant\left\Vert x\right\Vert \thinspace\left\Vert y\right\Vert \]

ou, si l’on préfère :

    \[\boxed{\left(x\mid y\right)^{2}\leqslant\left(x\mid x\right)\thinspace\left(y\mid y\right)}\qquad\left(CS\right)\]

avec égalité si et seulement si la famille \left(x,y\right) est liée.


Dans le présent contexte, l’inégalité (CS) prend la forme suivante.

Pour tout couple \left(f,g\right) d’applications continues de \left[0,1\right] dans \mathbb{R} :

    \[ \left(\int_{0}^{1}f\left(t\right)g\left(t\right)\thinspace dt\right)^{2}\leqslant\left(\int_{0}^{1}f\left(t\right)^{2}\thinspace dt\right)\left(\int_{0}^{1}g\left(t\right)^{2}\thinspace dt\right)\]

On reconnait donc que \left(\spadesuit\right) correspond au cas d’égalité dans l’inégalité de Cauchy-Schwarz, pour le couple \left(u,\theta\right)\theta désigne l’application constante \left[0,1\right]\rightarrow\mathbb{R},\thinspace t\mapsto1.

Il est donc nécessaire que la famille \left(u,\theta\right) soit liée, ce qui (vu que \theta n’est pas l’application nulle) signifie qu’il existe \lambda\in\mathbb{R} tel que u=\lambda\theta.

Autrement dit, la condition \left(\spadesuit\right) signifie simplement que u est constante.

Réciproquement, il est facile de voir que toute application constante de \left[0,1\right] dans \mathbb{R} appartient à B^{\bot}.

En définitive, B^{\bot} est le sous-espace de E constitué des applications constantes, c’est-à-dire la droite vectorielle engendrée par \theta :

    \[ \boxed{B^{\bot}=\mathbb{R}\theta}\]

5 – Bi-orthogonal d’un sous-espace

Par définition, étant donné un espace préhilbertien E et une partie A de A, l’ensemble \left(A^{\bot}\right)^{\bot} sera appelé le bi-orthogonal de A (je ne suis pas certain que cette appellation soit tout à fait standard, mais peu importe).

\left(A^{\bot}\right)^{\bot} est le sous-espace vectoriel formé des vecteurs qui sont orthogonaux à tous les éléments de A^{\bot}. Il est donc évident que :

    \[A\subset\left(A^{\bot}\right)^{\bot}\]

Dans le cas où E est de dimension finie et si F est un sous-espace vectoriel, on peut appliquer deux fois le théorème du supplémentaire orthogonal. D’une part :

    \[E=F\oplus F^{\bot}\]

et d’autre part :

    \[E=F^{\bot}\oplus\left(F^{\bot}\right)^{\bot}\]

d’où en particulier :

    \[\dim\left(E\right)=\dim\left(E\right)-\dim\left(F^{\bot}\right)=\dim\left(\left(F^{\bot}\right)^{\bot}\right)\]

Avec une inclusion et l’égalité des dimensions, on conclut donc que :

Proposition 2

Si F est un sous-espace vectoriel d’un espace euclidien, alors :

    \[F=\left(F^{\bot}\right)^{\bot}\]

Maintenant, si E est de dimension infinie, cette égalité n’est pas vraie en général. Il suffit pour le voir de considérer l’exemple 1 de la section précédente. On a vu en effet que l’hyperplan A vérifiait A^{\bot}=\left\{0\right\} . Par conséquent :

    \[A\neq E=\left(A^{\bot}\right)^{\bot}\]

Il est cependant intéressant de noter que :

Proposition 3

Si E est un espace préhilbertien et si F est un sous-espace vectoriel de E tel que E=F\oplus F^{\bot}, alors F=\left(F^{\bot}\right)^{\bot}.

Manifestement, la proposition 3 prolonge la 2. Mais pour l’établir, plus moyen de faire intervenir la notion de dimension …

Considérons x\in\left(F^{\bot}\right)^{\bot} et décomposons-le sous la forme x=a+b avec a\in F et b\in F^{\bot}.

Alors b=x-a\in\left(F^{\bot}\right)^{\bot}, car a\in F\subset\left(F^{\bot}\right)^{\bot} et \left(F^{\bot}\right)^{\bot} est stable par différence. Donc b\in F^{\bot}\cap\left(F^{\bot}\right)^{\bot} et donc b=0_{E} (vecteur orthogonal à lui-même, one more time …). Ceci prouve l’inclusion \left(F^{\bot}\right)^{\bot}\subset F et donc l’égalité. La proposition 3 est établie.

Pour finir cette section, nous allons montrer que la réciproque de l’implication établie dans la proposition 3 est fausse. Il s’agit de trouver un exemple de sous-espace F d’un espace préhilbertien E vérifiant F=\left(F^{\bot}\right)^{\bot}, mais E\neq F\oplus F^{\bot}.

Exemple 3 : un sous-espace vérifiant F=\left(F^\bot\right)^\bot mais F\oplus F^\bot\neq E

Soit E l’espace des applications continues de \left[-1,1\right] dans \mathbb{R}, muni du produit scalaire défini par :

    \[\forall\left(f,g\right)\in E^{2},\thinspace\left(f\mid g\right)=\int_{-1}^{1}f\left(t\right)g\left(t\right)\thinspace dt\]

ainsi que les deux sous-espaces :

    \[D=\left\{f\in E;\,\forall t\in\left[0,1\right],\thinspace f\left(t\right)=0\right\}\]

et

    \[G=\left\{f\in E;\,\forall t\in\left[-1,0\right],\thinspace f\left(t\right)=0\right\}\]

Vérifions que G=D^\bot et que D=G^\bot.
Il en résultera que :

    \[\boxed{G=\left(G^{\bot}\right)^{\bot}}\]

Et pourtant :

    \[\boxed{G\oplus G^{\bot}\neq E}\]

puisque tous les éléments de G\oplus G^{\bot}=G\oplus D s’annulent en 0.

Si f\in G^{\bot}, considérons l’application g\in E définie par :

    \[\forall t\in\left[-1,1\right],\thinspace g\left(t\right)=\left\{\begin{array}{cc}0 & \text{si }t\in\left[-1,0\right]\\\\t\thinspace f\left(t\right) & \text{si }t\in\left[0,1\right]\end{array}\right.\]

Visiblement, g\in G et donc \left(f\mid g\right)=0, c’est-à-dire :

    \[\int_{0}^{1}tf\left(t\right)^{2}\thinspace dt=0\]

Ceci entraîne que f est nulle sur \left[0,1\right], autrement dit que f\in D. Ainsi, G^{\bot}\subset D et l’inclusion inverse est claire. Bref :

    \[G^{\bot}=D\]

et l’on prouverait de même que :

    \[D^{\bot}=G\]

6 – Sous-espaces fermés

Les pré-requis pour ce qui suit sont la notion de partie fermée d’un espace vectoriel normé et les trois propriétés suivantes :

  • l’intersection de toute famille de fermés de E est un fermé de E.
  • si \varphi:E\rightarrow\mathbb{R} est une application continue, alors l’image réciproque par \varphi d’un fermé de \mathbb{R} est un fermé de E.
  • une forme linéaire \varphi:E\rightarrow\mathbb{R} est continue si, et seulement s’il existe k\in\mathbb{R}^{+} tel que

        \[\forall x\in E,\thinspace\left|\varphi\left(x\right)\right|\leqslant k\thinspace\left\Vert x\right\Vert\]

Soit E un espace préhilbertien. Pour tout a\in E, notons \varphi_{a} la forme linéaire définie par :

    \[ \varphi_{a}\thinspace:\thinspace E\rightarrow\mathbb{R},\thinspace x\mapsto\left(a\mid x\right)\]

D’après l’inégalité de Cauchy-Schwarz :

    \[\forall x\in E,\thinspace\left|\varphi_{a}\left(x\right)\right|\leqslant\left\Vert a\right\Vert \thinspace\left\Vert x\right\Vert \]

ce qui prouve la continuité de \varphi_{a}. Le noyau de \varphi_{a} est donc une partie fermée de E (c’est plus précisément un hyperplan fermé, si toutefois a\neq0_{E}. Bien entendu, le noyau de \varphi_{0} est E).

Pour toute partie A de E, on constate avec la définition de l’orthogonal que :

    \[A^{\bot}=\bigcap_{a\in A}\ker\left(\varphi_{a}\right)\]

Ainsi, A^{\bot} se présente comme l’intersection d’une famille de fermés et c’est donc un fermé de E.

En particulier, si un sous-espace F de E vérifie F=\left(F^{\bot}\right)^{\bot} alors F est fermé dans E. Nous allons maintenant voir, à l’aide d’un contre-exemple, que la réciproque est fausse.

Exemple 4 : un sous-espace fermé qui ne coïncide pas avec son bi-orthogonal

On revient à l’espace E des applications continues de \left[0,1\right] dans \mathbb{R}, muni du produit scalaire défini par :

    \[\forall\left(f,g\right)\in E^{2},\thinspace\left(f\mid g\right)=\int_{0}^{1}f\left(t\right)g\left(t\right)\thinspace dt\]

On fixe un réel a\in\left]0,1\right[ et l’on pose :

    \[H=\left\{f\in E;\thinspace\int_{0}^{a}f\left(t\right)\thinspace dt=0\right\} \]

H est un hyperplan car c’est le noyau de la forme linéaire non nulle \psi:E\rightarrow\mathbb{R},\thinspace f\mapsto\int_{0}^{a}f\left(t\right)\thinspace dt.

En outre \psi est continue puisque, pour tout f\in E et d’après l’inégalité de Cauchy-Schwarz :

    \[\left|\psi\left(f\right)\right|=\left|\int_{0}^{a}f\left(t\right)\thinspace dt\right|\leqslant\left(\int_{0}^{a}dt\right)^{1/2}\left(\int_{0}^{a}f\left(t\right)^{2}\thinspace dt\right)^{1/2}=\sqrt{a}\left\Vert f\right\Vert _{2}\]

Par conséquent, H est fermé dans E. Déterminons son orthogonal.

Soit u\in H^{\bot}. Pour tout \epsilon\in\left]0,1-a\right[, considérons u_{\epsilon}\in E définie par :

    \[u_{\epsilon}\left(t\right)=\left\{\begin{array}{cc}0 & \text{si }0\leqslant t\leqslant a\\u\left(t\right) & \text{si }a+\epsilon\leqslant t\leqslant1\end{array}\right.\qquad\text{et }u_{\epsilon}\text{ affine sur }\left[a,a+\epsilon\right]\]

En bleu ciel, le graphe de u, en rouge celui de u_\epsilon

Manifestement u_{\epsilon}\in H et donc :

    \[ 0=\left(u\mid u_{\epsilon}\right)=\int_{a}^{a+\epsilon}u\left(t\right)u_{\epsilon}\left(t\right)\thinspace dt+\int_{a+\epsilon}^{1}u\left(t\right)^{2}\thinspace dt\qquad\left(\star\right)\]

Or, pour tout t\in\left[a,a+\epsilon\right], on a :

    \[\left|u_{\epsilon}\left(t\right)\right|\leqslant\left|u\left(a+\epsilon\right)\right|\leqslant\left\Vert u\right\Vert_{\infty}\]

et donc :

    \[ \left|\int_{a}^{a+\epsilon}u\left(t\right)u_{\epsilon}\left(t\right)\thinspace dt\right|\leqslant\int_{a}^{a+\epsilon}\left|u\left(t\right)u_{\epsilon}\left(t\right)\right|\thinspace dt\leqslant\epsilon\left\Vert u\right\Vert_{\infty}^{2}\]

d’où il résulte que :

    \[ \lim_{\epsilon\rightarrow0}\int_{a}^{a+\epsilon}u\left(t\right)u_{\epsilon}\left(t\right)\thinspace dt=0\]

En passant à la limite dans \left(\star\right) on obtient donc \int_{a}^{1}u\left(t\right)^{2}\thinspace dt=0, ce qui prouve que u est identiquement nulle sur \left[a,1\right].

Maintenant, notons \theta:\left[0,1\right]\rightarrow\mathbb{R},\thinspace t\mapsto1 et posons :

    \[ c=\frac{1}{a}\int_{0}^{a}u\left(t\right)\thinspace dt\]

c est la valeur moyenne de u sur [0,a].

Alors u-c\theta\in H et donc \left(u\mid u-c\theta\right)=0, c’est-à-dire :

    \[ \int_{0}^{1}u\left(t\right)^{2}\thinspace dt-\frac{1}{a}\left(\int_{0}^{a}u\left(t\right)\thinspace dt\right)\left(\int_{0}^{1}u\left(t\right)\thinspace dt\right)=0\]

ou encore, compte tenu de la nullité de u sur \left[a,1\right] :

    \[a\int_{0}^{a}u\left(t\right)^{2}\thinspace dt=\left(\int_{0}^{a}u\left(t\right)\thinspace dt\right)^{2}\]

On reconnaît (comme pour l’exemple 2 plus haut) le cas d’égalité dans l’inégalité de Cauchy-Schwarz, pour le couple formé par les restrictions à \left[0,a\right] de u et \theta. Ces restrictions sont donc linéairement dépendantes : autrement dit, u est constante sur \left[0,a\right].

Par continuité de u en a, on voit que u=0, et finalement :

    \[\boxed{H^{\bot}=\left\{0\right\}}\]

En particulier : H\neq\left(H^{\bot}\right)^{\bot}.

7 – Un mot sur les espaces de Hilbert

Soit E un espace vectoriel normé réel (pour ne pas sortir trop du contexte de cet article, on reste dans le champ réel, mais ce qui suit s’applique aussi bien aux espaces vectoriels normés sur le corps \mathbb{C} des nombres complexes).

La norme en vigueur sur E sera notée \left\Vert \:\right\Vert .

Une suite \left(x_{n}\right)_{n\in\mathbb{N}} de vecteurs de E est dite convergente lorsqu’il existe un vecteur L\in E tel que :

    \[\lim_{n\rightarrow\infty}\left\Vert x_{n}-L\right\Vert =0\]

c’est-à-dire :

    \[\boxed{\forall\epsilon>0,\thinspace\exists N\in\mathbb{N};\thinspace\forall n\in\mathbb{N},\thinspace n\geqslant N\Rightarrow\left\Vert x_{n}-L\right\Vert \leqslant\epsilon}\qquad\left(CV\right)\]

Cette même suite est dite de Cauchy lorsque :

    \[\boxed{\forall\epsilon>0,\thinspace\exists N\in\mathbb{N},\thinspace\forall\left(p,q\right)\in\mathbb{N}^{2},\thinspace\left(p\geqslant N\text{ et }q\leqslant N\right)\Rightarrow\left\Vert x_{p}-x_{q}\right\Vert \leqslant\epsilon}\qquad\left(CC\right)\]

Il est facile de voir que toute suite convergente est de Cauchy, mais la réciproque est fausse en général.

Il existe cependant des espaces normés dans lesquels toute suite de Cauchy est convergente : ce sont les espaces normés complets, aussi appelés espaces de Banach, en l’honneur du mathématicien polonais Stefan BANACH (1892 – 1945).

Quant aux espaces préhilbertiens complets, ils sont appelés espaces de Hilbert, en l’honneur, cette fois, du mathématicien allemand David HILBERT (1862 – 1943).

Les espaces complets jouent un rôle très important en analyse. Sans entrer dans les détails, on peut dans un tel espace prouver la convergence d’une suite sans avoir la moindre idée de sa limite (en se contentant de vérifier le critère de Cauchy (CC) ci-dessus). Ceci explique en partie l’importance de cette notion.

Pour en savoir plus sur les suites de Cauchy, on peut consulter cet article.

Nous avons vu, pour tout espace préhilbertien E et tout sous-espace F, les implications suivantes :

Les réciproques des implications \left(3\right)\Rightarrow\left(2\right) et \left(2\right)\Rightarrow\left(1\right) sont fausses, comme l’ont montré l’exemple 3 et l’exemple 4 plus haut. Cependant, on a le :

Théorème

Si F est un sous-espace complet de E alors l’assertion \left(1\right) est vraie.

Ceci généralise l’énoncé donné dans le préambule de cet article (puisque, dans tout espace préhilbertien, les sous-espaces de dimension finie sont complets).

Les assertions \left(1\right), \left(2\right) et \left(3\right) sont donc équivalentes dans le cas où E est un espace de Hilbert.

Pour voir cela, on commence par établir le :

Théorème (projection orthogonale sur un convexe fermé dans un espace de Hilbert)

Soit E un espace de Hilbert et soit A une partie non vide de E, convexe et fermée. Alors, pour tout x\in E, il existe un unique p\in A tel que :

    \[\left\Vert x-p\right\Vert =\inf\left\{\left\Vert x-a\right\Vert ;\thinspace a\in A\right\} \]

En outre, ce vecteur p est caractérisé (parmi tous les vecteurs de A) par la condition :

    \[\forall a\in A,\:\left(x-p\mid a-p\right)\leqslant0\]

Cette condition s’interprète géométriquement en disant que l’angle entre les vecteurs x-p et a-p est obtus, quel que soit a\in A.

Vous trouverez une démonstration de ce résultat dans l’article consacré aux suites de Cauchy et aux espaces complets.

Bien entendu, un sous-espace vectoriel de E est une partie non vide et convexe. On peut donc affirmer que si F est un sous-espace complet de E, alors pour tout x\in E, le vecteur p\in F dont le théorème ci-dessus donne l’existence et l’unicité, vérifie pour tout \left(t,a\right)\in\mathbb{R}\times F :

    \[\left\Vert x-p\right\Vert \leqslant\left\Vert x-\left(p+ta\right)\right\Vert \]

Après élévation au carré et simplification :

    \[t^{2}\left\Vert a\right\Vert ^{2}-2t\left(x-p\mid a\right)\geqslant0\]

Notons Q\left(t\right)=t^{2}\left\Vert a\right\Vert ^{2}-2t\left(x-p\mid a\right). Si \left(x-p\mid a\right) était non nul, on aurait :

    \[Q\left(t\right)\underset{{\scriptstyle 0}}{\sim}-2t\left(x-p\mid a\right)\]

et donc Q\left(t\right) changerait de signe en t=0. Ce n’est pas le cas !

Ainsi \left(x-p\mid a\right)=0 pour tout a\in F, autrement dit : x-p\in F^{\bot}.

Il en résulte que E=F\oplus F^{\bot} et le théorème du supplémentaire orthogonal pour un sous-espace complet d’un espace préhilbertien, est établi.


Vos questions ou remarques sont les bienvenues. Vous pouvez laisser un commentaire ci-dessous ou bien passer par le formulaire de contact.


Partager cet article

Laisser un commentaire