Solutions détaillées de neuf exercices sur la notion de produit scalaire (fiche 01).
Cliquer ici pour accéder aux énoncés.

Divers éléments théoriques sont disponibles dans cet article.

icone-math-OS-Exos
exercice 1 facile

Traitons directement le cas général.

Soient n\in\mathbb{N} et a_{0},\cdots,a_{n} des réels tous distincts.

Pour tout \alpha\in\mathbb{R}, l’application :

    \[ \mathbb{R}_{n}\left[X\right]\rightarrow\mathbb{R},\thinspace P\mapsto P\left(\alpha\right)\]

est une forme linéaire (appelée  » évaluation en \alpha « ).

Par conséquent, l’application :

    \[\mathbb{R}_{n}\left[X\right]^{2}\rightarrow\mathbb{R},\thinspace\left(P\mid Q\right)\mapsto\sum_{i=0}^{n}P\left(a_{i}\right)Q\left(a_{i}\right)\]

est une forme bilinéaire. Sa symétrie et sa positivité sont évidentes.

En outre, si \left(P\mid P\right)=0 c’est-à-dire si {\displaystyle \sum_{i=0}^{n}P\left(a_{i}\right)^{2}=0,} alors (somme nulle de réels positifs) P\left(a_{i}\right)=0 pour tout i\in\llbracket0,n\rrbracket .

Enfin, on sait que le seul élément de \mathbb{R}_{n}\left[X\right] possédant n+1 racines est le polynôme nul.

Bref, on a bien affaire à un produit scalaire. Ensuite, la bonne idée est de penser à l’interpolation de Lagrange. Notons L_{j} l’unique élément de \mathbb{R}_{n}\left[X\right] vérifiant :

    \[L_{j}\left(a_{i}\right)=\left\{\begin{array}{cc}1 & \text{si }i=j\\\\0 & \text{sinon}\end{array}\right.\]

c’est-à-dire L_j(a_i)=\delta_{i,j} (symbole de Kronecker). Rappelons au passage, même si ce n’est pas utile ici, que L_{j} est explicitement donné par :

    \[ L_{j}=\prod_{{0\leqslant i\leqslant n\atop i\neq j}}\frac{X-a_{i}}{a_{j}-a_{i}}\]

Il est classique que \left(L_{0},\cdots,L_{n}\right) est une base de \mathbb{R}_{n}\left[X\right]. En outre, pour tout \left(j,k\right)\in\llbracket0,n\rrbracket^{2} :

    \[\left(L{j}\mid L_{k}\right)=\sum_{i=0}^{n}\delta_{i,j}\delta_{i,k}=\delta_{j,k}\]

ce qui prouve que \left(L_{0},\cdots,L_{n}\right) est une base orthonormale de \mathbb{R}_{n}\left[X\right] pour ce produit scalaire.

exercice 2 facile

On montre d’abord la linéarité de \varphi. Pour cela, on considère deux vecteurs a,b\in E, un réel \lambda, et l’on espère prouver que :

    \[ \varphi\left(\lambda a+b\right)=\lambda\thinspace\varphi\left(a\right)+\varphi\left(b\right)\]

Il faut bien voir que les deux membres de cette égalité sont des formes linéaires et, en particulier, des applications. On va donc se donner x\in E quelconque et prouver que :

    \[ \left[\varphi\left(\lambda a+b\right)\right]\left(x\right)=\left[\lambda\varphi\left(a\right)+\varphi\left(b\right)\right]\left(x\right)\]

ce qui se fait  » tout seul  » :

    \begin{eqnarray*}\left[\varphi\left(\lambda a+b\right)\right]\left(x\right) & \underset{\left(1\right)}{=} & \left(\lambda a+b\mid x\right)\\& \underset{\left(2\right)}{=} & \lambda\left(a\mid x\right)+\left(b\mid x\right)\\& \underset{\left(3\right)}{=} & \lambda\thinspace\left[\varphi\left(a\right)\right]\left(x\right)+\left[\varphi\left(b\right)\right]\left(x\right)\\& \underset{\left(4\right)}{=} & \left[\lambda\thinspace\varphi\left(a\right)+\varphi\left(b\right)\right]\left(x\right)\end{eqnarray*}

Les égalités \left(1\right) et \left(3\right) découlent de la définition de \varphi. L’égalité \left(2\right) provient de la linéarité à gauche du produit scalaire. Quant à l’égalité \left(4\right), elle résulte de la définition de \lambda\alpha+\beta\alpha,\beta sont deux formes linéaires sur E.

La linéarité de \varphi est établie. Plus formellement, on a prouvé que :

    \[ \varphi\in\mathcal{L}\left(E,\thinspace\mathcal{L}\left(E,\mathbb{R}\right)\right)\]

Pour montrer l’injectivité de \varphi, il suffit de vérifier que son noyau est réduit au vecteur nul de E.

Si a\in\ker\left(\varphi\right), alors \varphi\left(a\right) est la forme linéaire nulle, ce qui signifie que :

    \[ \forall x\in E,\thinspace\left(a\mid x\right)=0\]

En particulier : \left(a\mid a\right)=0 et donc a=0_{E}. L’injectivité de \varphi est établie.

Si E est de dimension finie, alors \dim\left(E\right)=\dim\left(\mathcal{L}\left(E,\mathbb{R}\right)\right). On peut donc affirmer, grâce au théorème du rang, que \varphi est un isomorphisme.

Remarque

Cet isomorphisme est qualifié de canonique, pour indiquer qu’il a été défini de manière intrinsèque, c’est-à-dire sans utiliser une quelconque base de E.

Lorsque E est de dimension infinie, l’application \varphi n’est jamais surjective.

En voici une démonstration, si vous êtes intéress(é)e.

Toutes les formes linéaires du type \varphi\left(a\right), pour a\in E, sont continues. Ceci résulte de l’inégalité de Cauchy-Schwarz :

    \[\forall x\in E,\thinspace\left|\left[\varphi\left(a\right)\right]\left(x\right)\right|=\left|\left(a\mid x\right)\right|\leqslant\left\Vert a\right\Vert \thinspace\left\Vert x\right\Vert \]

Il suffit donc de prouver l’existence de formes linéaires discontinues pour conclure que \varphi n’est pas surjective.

Comme E est de dimension infinie, il existe une suite \left(e_{i}\right)_{i\in\mathbb{N}} de vecteurs de E qui sont unitaires et linéairement indépendants.

Notons V=\text{vect}\left\{e_{i};\thinspace i\in\mathbb{N}\right\} et soit W un supplémentaire de V dans E. On définit une forme linéaire \psi sur E par les relations suivantes :

    \[\forall i\in\mathbb{N},\thinspace\psi\left(e_{i}\right)=i\]


et

    \[\forall w\in W,\thinspace\psi\left(w\right)=0\]

Cette forme linéaire est discontinue, puisqu’elle n’est pas bornée sur la sphère unité de E.

Voici maintenant un résultat moins précis, mais qui n’est déjà pas si mal…

L’espace E des applications continues de E dans \mathbb{R} est muni du produit scalaire défini par :

    \[ \forall\left(f,g\right)\in E^{2},\;\left(f\mid g\right)=\int_{0}^{1}f\left(t\right)\thinspace g\left(t\right)\thinspace dt\]

On considère la forme linéaire  » évaluation en 0  » :

    \[ L:E\rightarrow\mathbb{R},\thinspace f\mapsto f\left(0\right)\]

Supposons qu’il existe a\in E tel que \varphi\left(a\right)=L, c’est-à-dire tel que :

    \[ \forall f\in E,\thinspace\int_{0}^{1}a\left(t\right)\thinspace f\left(t\right)\thinspace dt=f\left(0\right)\]

En choisissant f:t\mapsto t\thinspace a\left(t\right), on constate que :

    \[ \int_{0}^{1}t\thinspace a\left(t\right)^{2}\thinspace dt=0\]

L’application \left[0,1\right]\rightarrow\mathbb{R},\thinspace t\mapsto t\thinspace a\left(t\right)^{2} est continue, positive et d’intégrale nulle : c’est donc l’application nulle.

Il en résulte que a est l’application nulle (nulle en tout point de \left]0,1\right] et donc aussi en 0, par continuité). Mais ceci signifie que L est la forme linéaire nulle, ce qui est absurde ! On a donc prouvé que L ne possède aucun antécédent par \varphi.

exercice 3 facile

Preuve 1

Si x=0_{E}, l’inégalité à établir est vraie (c’est même une égalité) et la famille \left(x,y\right) est liée.

Supposons maintenant x\neq0_{E} et posons, pour tout t\in\mathbb{R} :

    \begin{eqnarray*}P\left(t\right) & = & \left\Vert tx+y\right\Vert ^{2}\\& = & \left\Vert x\right\Vert ^{2}t^{2}+2\left(x\mid y\right)t+\left\Vert y\right\Vert ^{2} \end{eqnarray*}

On voit que P est un trinôme de signe constant, donc de discriminant négatif ou nul (rappelons qu’un trinôme de discriminant strictement positif possède deux racines distinctes, qu’il est du signe de son coefficient dominant à l’extérieur du segment limité par les racines et du signe contraire à l’intérieur).

Ceci donne l’inégalité souhaitée.

Le cas d’égalité est celui où le discriminant est nul : il existe alors t_{0}\in\mathbb{R} tel que P\left(t_{0}\right)=0, c’est-à-dire \left\Vert t_{0}x+y\right\Vert ^{2}=0 ou encore y=-t_{0}x. La famille \left(x,y\right) est donc liée.

Preuve 2

Supposons x et y non nuls. On observe que :

    \[ 0\leqslant\frac{1}{2}\left\Vert \frac{x}{\left\Vert x\right\Vert }-\frac{\epsilon y}{\left\Vert y\right\Vert }\right\Vert ^{2}=\frac{1}{2}\left[\left\Vert \frac{x}{\left\Vert x\right\Vert }\right\Vert ^{2}+\left\Vert \frac{\epsilon y}{\left\Vert y\right\Vert }\right\Vert ^{2}-2\frac{\epsilon}{\left\Vert x\right\Vert \left\Vert y\right\Vert }\left(x\mid y\right)\right]\]

c’est-à-dire :

    \[ 1-\frac{\epsilon\left(x\mid y\right)}{\left\Vert x\right\Vert \left\Vert y\right\Vert }\geqslant0\]

Or, \epsilon\left(x\mid y\right)=\left|\left(x\mid y\right)\right| par définition de \epsilon et donc :

    \[ \left|\left(x\mid y\right)\leqslant\left\Vert x\right\Vert \left\Vert y\right\Vert \right|\]

En cas d’égalité, on a :

    \[ \frac{x}{\left\Vert x\right\Vert }-\frac{\epsilon y}{\left\Vert y\right\Vert }=0\]

ce qui montre que la famille \left(x,y\right) est liée.

Fixons une base orthonormale \beta=\left(e_{1},\cdots,e_{n}\right) de E. Soit \varphi:E^{2}\rightarrow\mathbb{R} une forme bilinéaire.

Pour tout \left(x,y\right)\in E^{2}, en décomposant x\text{ et }y dans \beta sous la forme :

    \[ x=\sum_{i=1}^{n}x_{i}e_{i}\qquad\text{et}\qquad y=\sum_{j=1}^{n}y_{j}e_{j}\]

il vient :

    \[\varphi\left(x,y\right)=\sum_{i=1}^{n}\sum_{j=1}^{n}x_{i}y_{j}\thinspace\varphi\left(e_{i},e_{j}\right)\]

Notons \alpha=\max_{1\leqslant i,j\leqslant n}\left|\varphi\left(e_{i},e_{j}\right)\right|. D’après l’inégalité triangulaire :

    \[\left|\varphi\left(x,y\right)\right|\leqslant\alpha\sum_{i=1}^{n}\sum_{j=1}^{n}\left|x_{i}\right|\left|y_{j}\right|\]

c’est-à-dire :

    \[\left|\varphi\left(x,y\right)\right|\leqslant\alpha\left(\sum_{i=1}^{n}\left|x_{i}\right|\right)\left(\sum_{j=1}^{n}\left|y_{j}\right|\right)\]

Mais d’après l’inégalité de Cauchy-Schwarz :

    \[\sum_{i=1}^{n}\left|x_{i}\right|=\sum_{i=1}^{n}1\times\left|x_{i}\right|\leqslant\left(\sum_{i=1}^{n}1^{2}\right)^{1/2}\left(\sum_{i=1}^{n}x_{i}^{2}\right)^{1/2}=\sqrt{n}\left\Vert x\right\Vert \]

et de même :

    \[ \sum_{j=1}^{n}\left|y_{j}\right|\leqslant\sqrt{n}\left\Vert y\right\Vert \]

Finalement, en posant A=n\alpha :

    \[ \left|\varphi\left(x,y\right)\right|\leqslant A\left\Vert x\right\Vert \left\Vert y\right\Vert \]

Remarque

L’inégalité établie ci-dessus exprime la continuité de la forme bilinéaire \varphi.

D’une manière générale, étant donné un \mathbb{R}-espace vectoriel normé et une forme p-linéaire \psi sur E (c’est-à-dire : une application de E^p dans \mathbb{R} qui est « linéaire par rapport à chaque variable »), on a l’équivalence entre les deux affirmations suivantes :

  • \psi est continue
  • il existe un réel B\geqslant0 tel que :

        \[\vert\psi\left(x_1,\cdots,x_p\right)\vert\leqslant B\Vert x_1\Vert\cdots\Vert x_p\Vert\]

    pour tout \left(x_1,\cdots,x_p\right)\in E^p.

On peut montrer que si E est de dimension finie, la continuité d’une forme multilinéaire est automatique et ce, quelle que soit la norme choisie (rappelons qu’en dimension finie, les normes sur un \mathbb{R}-espace vectoriel sont toutes équivalentes).

L’exercice n’aborde qu’un cas très particulier de cette situation (dimension 2 et norme issue d’un produit scalaire), mais de façon directe.

Soient x,y,z des vecteurs unitaires de E. D’après l’inégalité de Cauchy-Schwarz :

    \[ f\left(x,y,z\right)\leqslant\left\Vert x\right\Vert \left\Vert y\right\Vert +\left\Vert y\right\Vert \left\Vert z\right\Vert +\left\Vert z\right\Vert \left\Vert x\right\Vert =3\]

D’autre part :

    \begin{eqnarray*}0 & \leqslant & \left\Vert x+y+z\right\Vert ^{2}\\& = & \left\Vert x\right\Vert ^{2}+\left\Vert y\right\Vert ^{2}+\left\Vert z\right\Vert ^{2}+2\left[\left(x\mid y\right)+\left(y\mid z\right)+\left(z\mid x\right)\right]\\& = & 3+2\thinspace f\left(x,y,z\right)\end{eqnarray*}


et donc :

    \[ -\frac{3}{2}\leqslant f\left(x,y,z\right)\leqslant3\qquad\left(\spadesuit\right)\]

Dans \left(\spadesuit\right), l’inégalité de gauche est réalisée si l’on choisit :

    \[ x=e_{1},\qquad y=-\frac{1}{2}e_{1}+\frac{\sqrt{3}}{2}e_{2}\qquad z=-\frac{1}{2}e_{1}-\frac{\sqrt{3}}{2}e_{2}\]

où la famille \left(e_{1},e_{2}\right) est orthonormale (ce qui est possible puisque \dim\left(E\right)\geqslant2).

Et l’inégalité de droite est réalisée dès que x=y=z.

Remarque

S^{3} est une partie compacte de E^{3} et f:E^{3}\rightarrow\mathbb{R} est continue. On pouvait donc affirmer, a priori, que f est bornée et atteint ses bornes.

Soit f:\left[0,1\right]\rightarrow\mathbb{R} continue, positive et d’intégrale nulle.

Supposons f non nulle, c’est-à-dire : \exists c\in\left[0,1\right];\thinspace f\left(c\right)>0.

On peut d’ailleurs, en raison de la continuité de f en 0 et en 1, considérer que c\in\left]0,1\right[.

Par continuité de f en c, il existe \eta>0 tel que \left[c-\eta,c+\eta\right]\subset\left[0,1\right] et, pour tout t\in\left[0,\eta\right] :

    \[ \left|f\left(t\right)-f\left(c\right)\right|\leqslant\frac{1}{2}f\left(c\right)\]

d’où a fortiori :

    \[ f\left(c\right)-f\left(t\right)\leqslant\frac{1}{2}f\left(c\right)\]

c’est-à-dire :

    \[ f\left(t\right)\geqslant\frac{1}{2}f\left(c\right)\]

Il en résulte que :

    \[ \int_{0}^{1}f\left(t\right)\thinspace dt\geqslant\int_{c-\eta}^{c+\eta}f\left(t\right)\thinspace dt\geqslant\eta\thinspace f\left(0\right)>0\]

ce qui est absurde. On a démontré le :

Lemme

Si f:\left[0,1\right]\rightarrow\mathbb{R} est continue, positive et d’intégrale nulle, alors f=0.

Dans cet énoncé, on peut bien sûr remplacer l’intervalle \left[0,1\right] par un segment quelconque.

Considérons maintenant \omega:\left[0,1\right]\rightarrow\mathbb{R} continue et strictement positive. Il est clair que

    \[\Phi:E^{2}\rightarrow\mathbb{R},\thinspace\left(f,\,g\right)\mapsto\int_{0}^{1}f\left(t\right)g\left(t\right)\omega\left(t\right)\thinspace dt\]

est bilinéaire, symétrique et positive. En outre, si f\in E vérifie :

    \[ \int_{0}^{1}f\left(t\right)^{2}\omega\left(t\right)\thinspace dt=0\]

alors d’après le lemme (appliqué à t\mapsto f\left(t\right)^{2}\omega\left(t\right), qui est continue positive et d’intégrale nulle) :

    \[ \forall t\in\left[0,1\right],\thinspace f\left(t\right)^{2}\omega\left(t\right)=0\]

et donc f=0, puisque \omega ne s’annule pas.

Voici maintenant la  » bonne  » version de ce résultat, avec des hypothèses minimales sur \omega (qui est appelée fonction poids,… weight en anglais).

On note Z=\omega^{-1}\left\langle\left\{0\right\} \right\rangle. C’est l’image réciproque par \omega du singleton \left\{0\right\} ; autrement dit l’ensemble des valeurs en lesquelles \omega s’annule.

Proposition

    \[\left(\Phi\text{ est un produit scalaire}\right)\Leftrightarrow\left(Z\text{ est d'intérieur vide}\right)\]

Rappelons que l’intérieur de Z, noté \overset{\circ}{Z}, est l’ensemble des réels z vérifiant :

    \[\exists\epsilon>0;\quad\left]z-\epsilon,z+\epsilon\right[\subset Z\]

Dire que Z est d’intérieur vide signifie que Z ne contient aucun intervalle non trivial.

Preuve de \boxed{\Rightarrow}

Par contraposée. Supposons \overset{\circ}{Z}\neq\emptyset et soient \alpha<\beta\in\left[a,b\right] tels que \left[\alpha,\beta\right]\subset Z.

Considérons une application f\in E nulle en dehors de \left[\alpha,\beta\right] et ne s’annulant pas dans \left]\alpha,\beta\right[.

Par exemple :

    \[ f:\left[a,b\right]\rightarrow\mathbb{R},\thinspace t\mapsto\left\{\begin{array}{cc} 0 & \text{si }t\leqslant\alpha\text{ ou }t\geqslant\beta\\\\\left(t-\alpha\right)\left(\beta-t\right) & \text{si }\alpha<t<\beta\end{array}\right.\]

Alors \Phi\left(f,f\right)=0 bien que f\neq0, ce qui montre que \Phi n’est pas définie positive.

Preuve de \boxed{\Leftarrow}

Encore par contraposée. Par hypothèse, il existe f\in E-\left\{0\right\} vérifiant \Phi\left(f,f\right)=0.

Vue la continuité de f, il existe un segment \left[\alpha,\beta\right]\subset\left[a,b\right] ainsi que \lambda>0 tels que :

    \[ \forall t\in\left[\alpha,\beta\right],\thinspace f\left(t\right)\geqslant\lambda\]

On constate alors que :

    \[ 0=\int_{a}^{b}f(t)^{2}\omega(t)\,dt\geqslant\lambda^{2}\int_{\alpha}^{\beta}\omega(t)\,dt\geqslant0\]

ce qui impose \omega\left(t\right)=0 pour tout t\in\left[\alpha,\beta\right].

Ainsi, \overset{\circ}{Z}\neq\emptyset.

Passer en revue les trois axiomes de normes va poser une sérieuse difficulté technique pour l’inégalité triangulaire.

Montrons plutôt qu’il existe un produit scalaire sur E=C^{2}\left(\left[0,1\right],\mathbb{R}\right) pour lequel N n’est autre que la norme euclidienne associée.

Posons, pour tout \left(f,g\right)\in E^{2} :

    \[\left(f\mid g\right)=f\left(0\right)g\left(0\right)+f'\left(1\right)g'\left(1\right)+\int_{0}^{1}f''\left(t\right)g''\left(t\right)\thinspace dt\]

Il est facile de voir que \left(.\mid.\right) est une forme bilinéaire, symétrique et positive.

En outre, si \left(f\mid f\right)=0 alors (somme nulle de réels positifs) :

    \[ \left\{\begin{array}{ccccc} f\left(0\right) & = & 0\\ f'\left(1\right) & = & 0\\ \int_{0}^{1}f''\left(t\right)^{2}\thinspace dt & = & 0 &  & \left(\star\right) \end{array}\right.\]

D’après le lemme démontré au début de l’exercice n° 6, la condition \left(\star\right) impose f''=0, c’est-à-dire qu’il existe \left(a,b\right)\in\mathbb{R}^{2} tel que :

    \[ \forall t\in\left[0,1\right],\thinspace f\left(t\right)=at+b\]

Mais f\left(0\right)=b et f'\left(1\right)=a, donc a=b=0 et finalement f est l’application nulle. Ceci prouve le caractère défini positif.

Remarque

On s’appuie ici sur un résultat de cours : si E est un \mathbb{R}-espace vectoriel muni d’un produit scalaire, alors l’application E\rightarrow\mathbb{R}^{+},\thinspace x\mapsto\sqrt{\left(x\mid x\right)} est une norme. Le seul point non trivial dans cette affirmation concerne l’inégalité triangulaire. Celle-ci découle de l’inégalité de Cauchy-Schwarz.

Suivons les indications proposées.

On définit une produit scalaire sur E en posant :

    \[ \forall\left(P,Q\right)\in E^{2},\thinspace\left(P\mid Q\right)=\int_{0}^{+\infty}P\left(t\right)Q\left(t\right)e^{-t}\thinspace dt\]

Détail de cette affirmation

Cette intégrale impropre est convergente car (d’après la propriété des croissances comparées) :

    \[ \lim_{t\rightarrow+\infty}t^{2}P\left(t\right)Q\left(t\right)e^{-t}=0\]

et il existe donc t_{0}>0 tel que :

    \[ \forall t\geqslant t_{0},\thinspace\left|P\left(t\right)Q\left(t\right)e^{-t}\right|\leqslant\frac{1}{t^{2}}\]

Par ailleurs, il s’agit bien d’un produit scalaire. Bilinéarité, symétrie, positivité sont évidentes et de plus, si \left(P\mid P\right)=0, alors :

    \[ 0\leqslant\int_{0}^{1}P\left(t\right)^{2}e^{-t}\thinspace dt\leqslant\left(P\mid P\right)=0\]

ce qui impose \int_{0}^{1}P\left(t\right)^{2}e^{-t}\thinspace dt=0, puis P\left(t\right)=0 pour tout t\in\left[0,1\right], d’après le lemme vu au début de l’exercice n° 6.

Enfin, P est un polynôme possédant une infinité de racines et c’est donc le polynôme nul.

Par commodité, on calcule une fois pour toutes :

    \[ \forall\left(i,j\right)\in\mathbb{N}^{2},\;\left(X^{i}\mid X^{j}\right)=\int_{0}^{+\infty}t^{i+j}e^{-t}\thinspace dt=\left(i+j\right)!\]

D’après la théorie générale présentée à la section 3 de cet article :

    \[ \inf_{\left(a,b,c\right)\in\mathbb{R}^{3}}\int_{0}^{+\infty}\left(t^{3}-\left(at^{2}+bt+c\right)\right)e^{-t}\thinspace dt=\left\Vert X^{3}-p_{F}\left(X^{3}\right)\right\Vert ^{2}\]

F=\mathbb{R}_{2}\left[X\right] et p_{F} désigne le projecteur orthogonal sur F.

Pour calculer cela, commençons par expliciter une base orthogonale \left(e_{0},e_{1},e_{2}\right) de F.

On peut partir de la base canonique \left(1,X,X^{2}\right) et l’orthogonaliser.

On trouve après quelques petits calculs :

    \[ \boxed{e_{0}=1,\qquad e_{1}=X-1,\qquad e_{2}=X^{2}-4X+2}\]

Détail des « petits calculs » 🙂

Cherchons e_{0}, e_{1} et e_{2} sous la forme :

    \[ e_{0}=1\]


    \[ e_{1}=X+\lambda\]


    \[ e_{2}=X^{2}+\mu\left(X+\lambda\right)+\nu\]

les réels \lambda,\mu,\nu étant choisis de telle sorte que e_{0}, e_{1} et e_{2} soient deux à deux orthogonaux.

Alors :

    \[ 0=\left(e_{0}\mid e_{1}\right)=\left(1\mid X\right)+\lambda\left(1\mid1\right)=1+\lambda\]

impose \boxed{\lambda=-1}

Ensuite :

    \begin{eqnarray*}0=\left(e_{0}\mid e_{2}\right) & = & \left(1\mid X^{2}\right)+\mu\left(1\mid X+\lambda\right)+\nu\left(1\mid1\right)\\& = & 2+\nu\end{eqnarray*}


et

    \begin{eqnarray*}0=\left(e_{1}\mid e_{2}\right) & = & \left(X+\lambda\mid X^{2}\right)+\mu\left(X+\lambda\mid X+\lambda\right)+\nu\left(X+\lambda\mid1\right)\\& = & \left(X-1\mid X^{2}\right)+\mu\left(X-1\mid X-1\right)+\nu\left(X-1\mid1\right)\\& = & 6-2+\mu\left(2-2+1\right)\\& = & 4+\mu\end{eqnarray*}


imposent \boxed{\mu=-4} et \boxed{\nu=-2}

On s’appuie ensuite sur les deux formules :

    \[ \left\Vert X^{3}-p_{F}\left(X^{3}\right)\right\Vert ^{2}=\left\Vert X^{3}\right\Vert ^{2}-\left\Vert p_{F}\left(X^{3}\right)\right\Vert ^{2}\qquad\left(\heartsuit\right)\]


et

    \[ \left\Vert p_{F}\left(X^{3}\right)\right\Vert ^{2}=\frac{\left(X^{3}\mid e_{0}\right)^{2}}{\left\Vert e_{0}\right\Vert ^{2}}+\frac{\left(X^{3}\mid e_{1}\right)^{2}}{\left\Vert e_{1}\right\Vert ^{2}}+\frac{\left(X^{3}\mid e_{2}\right)^{2}}{\left\Vert e_{2}\right\Vert ^{2}}\qquad\left(\diamondsuit\right)\]

L’égalité \left(\heartsuit\right) résulte de la formule de Pythagore (les vecteurs p_{F}\left(X^{3}\right) et X^{3}-p_{F}\left(X^{3}\right) sont orthogonaux).

L’égalité \left(\diamondsuit\right) découle de l’expression en base orthonormale du projeté orthogonal sur F d’un vecteur de E, à savoir :

    \[ p_{F}\left(X^{3}\right)=\frac{\left(X^{3}\mid e_{0}\right)}{\left\Vert e_{0}\right\Vert ^{2}}\thinspace e_{0}+\frac{\left(X^{3}\mid e_{1}\right)}{\left\Vert e_{1}\right\Vert ^{2}}\thinspace e_{1}+\frac{\left(X^{3}\mid e_{2}\right)}{\left\Vert e_{2}\right\Vert ^{2}}\thinspace e_{2}\]

et (encore) de la formule de Pythagore.

Calculons quelques produits scalaires utiles :

    \begin{eqnarray*}\left\Vert e_{0}\right\Vert ^{2} & = & \boxed{1}\end{eqnarray*}


    \begin{eqnarray*}\left\Vert e_{1}\right\Vert ^{2} & = & \left\Vert X\right\Vert ^{2}-2\left(X\mid1\right)+\left\Vert 1\right\Vert ^{2}\\\\& = & 2-2+1\\\\& = & \boxed{1}\end{eqnarray*}


    \begin{eqnarray*}\left\Vert e_{2}\right\Vert ^{2} & = & \left\Vert X^{2}\right\Vert ^{2}+16\left\Vert X\right\Vert ^{2}+4\left\Vert 1\right\Vert ^{2}\\&  & -8\left(X^{2}\mid X\right)+4\left(X^{2}\mid1\right)-16\left(X\mid1\right)\\\\& = & 24+16\times2+4-8\times6+4\times2-16\\\\& = & \boxed{4}\end{eqnarray*}


    \[ \left\Vert X^{3}\right\Vert ^{2}=\boxed{720}\]


ainsi que :

    \[ \left(X^{3}\mid e_{0}\right)=\left(X^{3}\mid1\right)=\boxed{6}\]


    \[ \left(X^{3}\mid e_{1}\right)=\left(X^{3}\mid X-1\right)=24-6=\boxed{18}\]


    \[ \left(X^{3}\mid e_{2}\right)=\left(X^{3}\mid X^{2}-4X+2\right)=120-4\times24+2\times6=\boxed{36}\]

On voit maintenant que :

    \begin{eqnarray*}P_{F}\left(X^{3}\right) & = & \frac{\left(X^{3}\mid e_{0}\right)}{\left\Vert e_{0}\right\Vert ^{2}}\thinspace e_{0}+\frac{\left(X^{3}\mid e_{1}\right)}{\left\Vert e_{1}\right\Vert ^{2}}\thinspace e_{1}+\frac{\left(X^{3}\mid e_{2}\right)}{\left\Vert e_{2}\right\Vert ^{2}}\thinspace e_{2}\\\\& = & 6+18\left(X-1\right)+9\left(X^{2}-4X+2\right)\\\\& = & 9X^{2}-18X+6\end{eqnarray*}


et :

    \begin{eqnarray*}\left\Vert p_{F}\left(X^{3}\right)\right\Vert ^{2} & = & \frac{\left(X^{3}\mid e_{0}\right)^{2}}{\left\Vert e_{0}\right\Vert ^{2}}+\frac{\left(X^{3}\mid e_{1}\right)^{2}}{\left\Vert e_{1}\right\Vert ^{2}}+\frac{\left(X^{3}\mid e_{2}\right)^{2}}{\left\Vert e_{2}\right\Vert ^{2}}\\\\& = & \frac{6^{2}}{1}+\frac{18^{2}}{1}+\frac{36^{2}}{4}\\\\& = & 684\end{eqnarray*}

En conclusion :

    \[ \boxed{\inf_{\left(a,b,c\right)\in\mathbb{R}^{3}}\int_{0}^{+\infty}\left(t^{3}-\left(at^{2}+bt+c\right)\right)e^{-t}\thinspace dt=36}\]

et cette borne inférieure est atteinte pour :

    \[ \boxed{\left(a,b,c\right)=\left(9,-18,6\right)}\]

exercice 9 difficile

Soit f\in\left(V_{A}\right)^{\bot}. Considérons l’application :

    \[ g:\left[0,1\right]\rightarrow\mathbb{R},\thinspace t\mapsto f\left(t\right)\thinspace d\left(t,A\right)\]

où, par définition :

    \[ d\left(t,A\right)=\inf\left{ \left|t-a\right|;\thinspace a\in A\right} \]

L’application d\left(.,A\right) est continue car 1-lipschitzienne donc continue (pour une explication, voir ce passage d’une vidéo consacrée à une propriété de convexité de la distance à une partie d’un espace normé). Il s’ensuit que g est aussi continue.

Comme g\in V_{A}, alors \left(f\mid g\right)=0, c’est-à-dire :

    \[ \int_{0}^{1}f\left(t\right)^{2}d\left(t,A\right)\thinspace dt=0\]

Le lemme habituel (cf. début de l’exercice n° 6 plus haut) s’applique et montre que \forall t\in\left[0,1\right],\thinspace f\left(t\right)^{2}d\left(t,A\right)=0.

Ainsi, f s’annule en tout point où t\mapsto d\left(t,A\right) ne s’annule pas. Or A est fermé, et donc d\left(t,A\right)=0\Leftrightarrow t\in A. Ainsi f\in V_{\left[0,1\right]-A}.

Ceci montre que \left(V_{A}\right)^{\bot}\subset V_{\left[0,1\right]-A} et l’inclusion réciproque est évidente.

Remarque

Il n’est pas restrictif de supposer A fermé puisque, pour toute partie A de \left[0,1\right] :

    \[V_{A}=V_{\overline{A}}\]

En effet A\subset\overline{A} donc V_{\overline{A}}\subset V_{A}.

Par ailleurs, si f\in E s’annule en tout point de A, alors f s’annule sur l’adhérence de A, par continuité.

Il en résulte que :

    \[ \boxed{\forall A\subset\left[0,1\right],\thinspace\left(V_{A}\right)^{\bot}=V_{\left[0,1\right]-\overline{A}}}\]


Si un point n’est pas clair ou vous paraît insuffisamment détaillé, n’hésitez pas à poster un commentaire ou à me joindre via le formulaire de contact.

Partager cet article