Solutions détaillées de neuf exercices sur la notion de produit scalaire (fiche 02).
Cliquer ici pour accéder aux énoncés.

icone-math-OS-Exos
exercice 1 facile

On sait que pour toute partie B de E :

    \[B\subset B^{\bot\bot}\]

En remplaçant B par A^{\bot}, on obtient donc :

    \[A^{\bot}\subset A^{\bot\bot\bot}\]

Par ailleurs, le passage à l’orthogonal étant une application décroissante pour l’inclusion, on déduit de A\subset A^{\bot\bot} que :

    \[A^{\bot\bot\bot}\subset A^{\bot}\]

Finalement :

    \[\boxed{A^{\bot\bot\bot}=A^{\bot}}\]

exercice 2 facile

Si u et v commutent, alors :

    \[\left(u\circ v\right)^{\star}=v^{\star}\circ u^{\star}=v\circ u=u\circ v\]

et donc u\circ v est symétrique. Réciproquement, supposons u\circ v symétrique. Alors :

    \[u\circ v=\left(u\circ v\right)^{\star}=v^{\star}\circ u^{\star}=v\circ u\]

et donc u et v commutent.

En conclusion : u\circ v est symétrique si, et seulement si, u et v commutent.

exercice 3 facile

Fixons une BON \left(e_{1},\cdots,e_{n}\right) de E. Pour toute forme linéaire \varphi sur E et pour tout x\in E :

    \[\varphi\left(x\right)=\varphi\left(\sum_{i=1}^{n}\left(x\mid e_{i}\right)e_{i}\right)=\sum_{i=1}^{n}\left(x\mid e_{i}\right)\thinspace\varphi\left(e_{i}\right)\]

donc, si l’on pose :

    \[a=\sum_{i=1}^{n}\varphi\left(e_{i}\right)e_{i}\]

on constate que :

    \[\varphi\left(x\right)=\sum_{i=1}^{n}\left(x\mid e_{i}\right)\left(a\mid e_{i}\right)=\left(a\mid x\right)\]

Ceci montre que \varphi=\left(a\mid\cdot\right)

Remarque

Cette preuve fait explicitement intervenir une base de E. A comparer avec la preuve habituelle, rappelée dans l’énoncé, qui ne fait référence à aucune base particulière (ce qu’on exprime en disant que l’isomorphisme J est canonique).

L’application :

    \[\mathbb{R}_{n}\left[X\right]^{2}\rightarrow\mathbb{R},\thinspace\left(P,Q\right)\mapsto\int_{0}^{2\pi}P\left(\cos\left(\theta\right)\right)Q\left(\cos\left(\theta\right)\right)\thinspace d\theta\]

est bilinéaire, symétrique et positive. De plus, si P\in\mathbb{R}_{n}\left[X\right] est tel que :

    \[ \int_{0}^{2\pi}P\left(\cos\left(\theta\right)\right)^{2}\thinspace d\theta=0\]

alors (fonction continue, positive et d’intégrale nulle) P s’annule en tout point de \left[-1,1\right] et donc P=0.

Notons T_{k} le k-ème polynôme de Tchebytchev de 1ère espèce. Pour tout k\in\mathbb{N} :

    \begin{eqnarray*}\left\Vert T_{k}\right\Vert ^{2} & = & \int_{0}^{2\pi}\cos^{2}\left(k\theta\right)\thinspace d\theta\\& = & \frac{1}{2}\int_{0}^{2\pi}\left(1+\cos\left(2k\theta\right)\right)\thinspace d\theta\\& = & \left\{ \begin{array}{cc}\pi & \text{si }k\geqslant1\\\\2\pi & \text{si }k=0\end{array}\right.\end{eqnarray*}

Pour tout \left(j,k\right)\in\mathbb{N}^{2} tel que j\neq k :

    \begin{eqnarray*}\left(T_{j}\mid T_{k}\right) & = & \int_{0}^{2\pi}\cos\left(j\theta\right)\cos\left(k\theta\right)\thinspace d\theta\\& = & \frac{1}{2}\int_{0}^{2\pi}\left(\cos\left(\left(j+k\right)\theta\right)+\cos\left(\left(j-k\right)\theta\right)\right)\thinspace d\theta\end{eqnarray*}

et comme aucun des deux entiers j+k et j-k n’est nul :

    \[\left(T_{j}\mid T_{k}\right)=\frac{1}{2}\left[\frac{\sin\left(\left(j+k\right)\theta\right)}{j+k}+\frac{\sin\left(\left(j-k\right)\theta\right)}{j-k}\right]_{\theta=0}^{2\pi}=0 \]

Finalement la famille \left(P_{k}\right)_{k\geqslant0} définie par :

    \[P_{0}=\frac{1}{\sqrt{2\pi}}\qquad\text{et}\qquad\forall k\in\left\llbracket 1,n\right\rrbracket ,\:P_{k}=\frac{1}{\sqrt{\pi}}T_{k}\]

est une base orthonormale de \mathbb{R}_{n}\left[X\right] pour ce produit scalaire.

Soit u\in\mathcal{L}\left(E\right) conservant l’orthogonalité. Etant donnés a,b\in E tels que \left\Vert a\right\Vert =\left\Vert b\right\Vert =1, on constate que \left(a+b\mid a-b\right)=0, d’où \left(u\left(a\right)+u\left(b\right)\mid u\left(a\right)-u\left(b\right)\right)=0, c’est-à-dire \left\Vert u\left(a\right)\right\Vert =\left\Vert u\left(b\right)\right\Vert .
Il existe donc \lambda\geqslant0 tel que \left\Vert u\left(a\right)\right\Vert =\lambda pour tout vecteur unitaire a et donc, pour tout x\in E : \left\Vert u\left(x\right)\right\Vert =\lambda\left\Vert x\right\Vert . Si \lambda=0, alors u=0 et sinon, l’endomorphisme \frac{1}{\lambda}\thinspace u
conserve la norme, donc est un automorphisme orthogonal.

Bref, si u\in\mathcal{L}\left(E\right) converve l’orthogonalité, alors il existe \lambda\geqslant0 et \varphi\in\mathcal{O}\left(E\right) tel que u=\lambda\varphi.

Réciproquement, il est évident que tout endomorphisme de cette forme convient.

Remarque

La composée d’une homothétie non nulle par un automorphisme orthogonal est appelée une similitude. On distingue les similitudes directes (de déterminant >0) des similitudes indirectes (de déterminant <0).

L’application nulle est évidemment lipschitzienne.

Si \left(f,g\right)\in L^{2} et si \lambda\in\mathbb{R} alors \lambda f+g\in L; en effet, pour tout \left(x,x'\right)\in\left[0,1\right]^{2} :

    \begin{eqnarray*}\left|\left(\lambda f+g\right)\left(x\right)-\left(\lambda f+g\right)\left(x'\right)\right| & = & \left|\lambda\left(f\left(x\right)-f\left(x'\right)\right)+g\left(x\right)-g\left(x'\right)\right|\\& \leqslant & \left|\lambda\right|\thinspace\left|f\left(x\right)-f\left(x'\right)\right|+\left|g\left(x\right)-g\left(x'\right)\right|\\& \leqslant & \left(\left|\lambda\right|K_{f}+K_{g}\right)\thinspace\left|x-x'\right|\end{eqnarray*}

K_{f} (resp. K_{g}) désigne un rapport de Lipschitz pour f (resp. pour g). Comme toute application lipschitzienne est continue, ceci montre que L est un sous-espace vectoriel de \mathcal{C}\left(\left[0,1\right],\mathbb{R}\right).

Notons E_{1} le sous-espace de E constitué des applications de classes C^{1}. Si l’on prouve que E_{1}^{\bot}=\left\{ 0\right\} , il en résultera que L^{\bot}=\left\{ 0\right\} car (inégalité des accroissements finis, combinée avec le fait que toute application continue sur un segment est bornée) : E_{1}\subset L et donc L^{\bot}\subset E_{1}^{\bot}. Soit \varphi\in E_{1}^{\bot} et soit \Phi la primitive de \varphi qui s’annule en 0. On observe, en notant \theta l’application constante t\mapsto1, que :

    \[\Phi\left(1\right)=\int_{0}^{1}\varphi\left(t\right)\thinspace dt=\left(\varphi\mid\theta\right)=0\]

Soit maintenant f\in E et soit F une primitive de f (bien entendu : F\in E_{1}). Alors :

    \begin{eqnarray*}\left(\Phi\mid f\right) & = & \left[\Phi\left(t\right)F\left(t\right)\right]_{0}^{1}-\int_{0}^{1}\varphi\left(t\right)F\left(t\right)\thinspace dt\\& = & -\left(\varphi\mid F\right)\\& = & 0\end{eqnarray*}


En particulier : \left(\Phi\mid\Phi\right)=0 et donc \Phi=0, ce qui entraîne que \varphi=0, comme souhaité.

Le fait que l’application

    \[E\rightarrow\mathbb{R},\thinspace f\mapsto\int_{0}^{1}\left|f\left(t\right)\right|\thinspace dt\]

soit une norme est classique : non détaillé ici. Si la norme N était euclidienne, elle vérifierait l’identité du parallélogramme, à savoir :

    \[\boxed{\forall\left(f,g\right)\in E^{2},\;N\left(f+g\right)^{2}+N\left(f-g\right)^{2}=2\left[N\left(f\right)^{2}+N\left(g\right)^{2}\right]}\]

Avant de proposer un couple \left(f,g\right) ne vérifiant pas cette relation, remarquons que si f,g\in E sont telles que 0\leqslant g\leqslant f alors \left|f+g\right|=f+g et \left|f-g\right|=f-g et donc :

    \begin{eqnarray*}N\left(f+g\right)^{2}+N\left(f-g\right)^{2} & = & \left(\int_{0}^{1}f\left(t\right)\thinspace dt+\int_{0}^{1}g\left(t\right)\thinspace dt\right)^{2}+\left(\int_{0}^{1}f\left(t\right)\thinspace dt-\int_{0}^{1}g\left(t\right)\thinspace dt\right)^{2}\\& = & 2\left[\left(\int_{0}^{1}f\left(t\right)\thinspace dt\right)^{2}+\left(\int_{0}^{1}g\left(t\right)\thinspace dt\right)^{2}\right]\\& = & 2\left[N\left(f\right)^{2}+N\left(g\right)^{2}\right]\end{eqnarray*}

Cherchons donc un contre-exemple parmi les couples \left(f,g\right) de fonctions continues positives telles qu’aucune des deux ne soit majorée par l’autre. Posons pour tout t\in\left[0,1\right] :

    \[f\left(t\right)=t\qquad\mbox{et}\qquad g\left(t\right)=1-t\]

Alors :

    \begin{eqnarray*}N\left(f+g\right)^{2}+N\left(f-g\right)^{2} & = & 1+\left(\int_{0}^{1/2}\left(1-2t\right)\thinspace dt+\int_{1/2}^{1}\left(2t-1\right)\thinspace dt\right)^{2}\\& = & 1+\left(\frac{1}{4}+\frac{1}{4}\right)^{2}\\& = & \frac{5}{4}\end{eqnarray*}

tandis que :

    \[2\left[N_{1}\left(f\right)^{2}+N_{1}\left(g\right)^{2}\right]=2\left[\frac{1}{4}+\frac{1}{4}\right]=1\]

Notons F=\text{Vect}\left\{ e_{1},\cdots,e_{n}\right\} . Si x\in F^{\bot} alors (d’après l’hypothèse de l’énoncé) :

    \[\left\Vert x\right\Vert ^{2}=\sum_{i=1}^{n}\left(x\mid e_{i}\right)^{2}=0\]

et donc x=0_{E}. Ainsi F^{\bot}=\left\{ 0_{E}\right\} et comme E=F\oplus F^{\bot} (d’après le théorème du supplémentaire orthogonal), ceci montre que E=F. La famille \left(e_{1},\cdots,e_{n}\right) est ainsi génératrice de E. Comme elle est constituée de n vecteurs et vu que n=\dim\left(E\right), c’est une base de E. Il reste à prouver que les e_{i} sont unitaires et deux à deux orthogonaux.

Considérons un entier j\in\left\llbracket 1,n\right\rrbracket . En remplaçant x par e_{j} dans l’hypothèse, il vient :

    \[\left\Vert e_{j}\right\Vert ^{2}=\sum_{i=1}^{n}\left(e_{j}\mid e_{i}\right)^{2}\geqslant\left\Vert e_{j}\right\Vert ^{4}\]

et ceci entraîne \left\Vert e_{j}\right\Vert \leqslant1. Par ailleurs, si l’on note H_{j} l’hyperplan engendré par les e_{i} pour i\neq j et si x\in H_{j}^{\bot}-\left\{ 0_{E}\right\} , alors d’après l’inégalité de Cauchy-Schwarz :

    \[\left\Vert x\right\Vert ^{2}=\sum_{i=1}^{n}\left(x\mid e_{i}\right)^{2}=\left(x\mid e_{j}\right)^{2}\leqslant\left\Vert x\right\Vert ^{2}\left\Vert e_{j}\right\Vert ^{2}\]

ce qui montre que \left\Vert e_{j}\right\Vert \geqslant1. On sait maintenant que \left\Vert e_{j}\right\Vert =1 pour tout j\in\left\llbracket 1,n\right\rrbracket .

Pour finir, en remplaçant x par e_{j} dans l’hypothèse, on voit que :

    \[1=\left\Vert e_{j}\right\Vert ^{2}=\sum_{i=1}^{n}\left(e_{j}\mid e_{i}\right)^{2}=1+\sum_{{1\leqslant i\leqslant n\atop i\neq j}}\left(e_{j}\mid e_{i}\right)^{2}\]

d’où :

    \[\sum_{{1\leqslant i\leqslant n\atop i\neq j}}\left(e_{j}\mid e_{i}\right)^{2}=0\]

et donc (somme nulle de réels positifs) : e_{j}\bot e_{i} pour tout i\in\left\llbracket 1,n\right\rrbracket -\left\{ j\right\} .

exercice 9 difficile

➣ L’endomorphisme \varphi ne possède pas d’adjoint :

Supposons l’existence de \varphi^{\star}\in\mathcal{L}\left(E\right) tel que :

    \[\forall\left(f,g\right)\in E^{2},\thinspace\int_{0}^{1}\left[\varphi\left(f\right)\right]\left(t\right)\:g\left(t\right)\thinspace dt=\int_{0}^{1}f\left(t\right)\:\left[\varphi^{\star}\left(g\right)\right]\left(t\right)\thinspace dt\]

c’est-à-dire :

    \[\forall\left(f,g\right)\in E^{2},\thinspace f\left(0\right)\int_{0}^{1}g\left(t\right)\thinspace dt=\int_{0}^{1}f\left(t\right)\thinspace\left[\varphi^{\star}\left(g\right)\right]\left(t\right)\thinspace dt\]

Alors en particulier, en prenant g=\theta et en posant h=\varphi^{\star}\left(\theta\right) :

(\heartsuit)   \[\forall f\in E,\thinspace f\left(0\right)=\int_{0}^{1}f\left(t\right)\thinspace h\left(t\right)\thinspace dt\]

Pour finir, si l’on choisit f:t\mapsto t\thinspace h\left(t\right), il vient :

    \[0=\int_{0}^{1}t\thinspace h\left(t\right)^{2}\thinspace dt\]

Comme l’application t\mapsto t\thinspace h\left(t\right)^{2} est continue, positive et d’intégrale nulle, c’est l’application nulle, et donc h=0 (dans un premier temps h\left(t\right)=0 pour tout t\in\left]0,1\right], puis par continuité en 0 on voit que h\left(0\right)=0 nécessairement). Mais c’est absurde, car la relation \left(\heartsuit\right) dit que toute application continue de \left[0,1\right] dans \mathbb{R} s’annule en 0.

➣ Existence et calcul de l’adjoint de \psi :

Pour tous f,g\in E :

    \[\left(\psi\left(f\right)\mid g\right)=\int_{0}^{1}\,\left(\int_{0}^{x}\,f\left(t\right)\,dt\right)g\left(x\right)\,dx\]

Intégrons par parties, en posant :

    \begin{eqnarray*}u=\int_{0}^{x}\,f\left(t\right)\,dt & ; & v'=g\left(x\right)\\\\u'=f\left(x\right) & ; & v=\int_{0}^{x}\,g\left(t\right)\,dt\end{eqnarray*}

Il vient :

    \begin{eqnarray*}\left(\psi\left(f\right)\mid g\right) & = & \left(\int_{0}^{1}\,f\left(t\right)\,dt\right)\left(\int_{0}^{1}\,g\left(t\right)\,dt\right)-\int_{0}^{1}\,f\left(x\right)\,\left(\int_{0}^{x}\,g\left(t\right)\,dt\right)\,dx\\& = & \int_{0}^{1}\,f\left(x\right)\left[\int_{0}^{1}\,g\left(t\right)\,dt-\int_{0}^{x}\,g\left(t\right)\,dt\right]\,dx\\& = & \int_{0}^{1}\,f\left(x\right)\,\int_{x}^{1}\,g\left(t\right)\,dt\end{eqnarray*}

ce qui permet d’affirmer que \psi admet un adjoint, à savoir :

    \[\psi^{\star}:E\rightarrow E,\,g\mapsto\left(x\mapsto\int_{x}^{1}\,g\left(t\right)\,dt\right)\]


Si un point n’est pas clair ou vous paraît insuffisamment détaillé, n’hésitez pas à poster un commentaire ou à me joindre via le formulaire de contact.

Partager cet article
  •  
  •  
  •  
  •  

Laisser un commentaire