Noyau et Image d’une application linéaire

L’algèbre linéaire consiste, grosso modo, en l’étude des propriétés des espaces vectoriels et des applications linéaires. Et lorsqu’on examine une application linéaire, on commence souvent par en chercher le noyau et / ou l’image.

C’est précisément ce point qui fait l’objet du présent article.

Après avoir rappelé les indispensables définitions, je détaillerai pour vous quelques exemples de difficulté graduée et je présenterai aussi quelques considérations théoriques, indispensables pour comprendre l’utilité de ces notions.

1 – Bref rappel sur les applications linéaires

Afin de respecter le contour des programmes de mathématiques des deux premières années d’enseignement supérieur scientifique, le cadre retenu sera celui des espaces vectoriels sur un corps \mathbb{K} (ce contexte pourrait être élargi à celui des modules sur un anneau commutatif).

Etant donnés deux espaces vectoriels E et F sur un même corps \mathbb{K}, une application u:E\rightarrow F est dite linéaire lorsqu’elle « préserve la structure vectorielle », au sens suivant :

  • l’image de la somme de deux vecteurs est égale à la somme des images,
  • l’image du produit d’un scalaire \lambda par un vecteur est égale au produit de \lambda par l’image du vecteur.

En d’autres termes, une application linéaire est un « morphisme d’espaces vectoriels ».

Voici la version formalisée de la double-condition précédente :

  • \forall\left(x,x'\right)\in E^{2},\thinspace u\left(x+x'\right)=u\left(x\right)+u\left(x'\right)
  • \forall\left(\lambda,x\right)\in\mathbb{K}\times E,\thinspace u\left(\lambda x\right)=\lambda\thinspace u\left(x\right)

Tout ceci équivaut à l’unique condition suivante :

    \[\boxed{\forall\lambda\in\mathbb{K},\thinspace\forall\left(x,x'\right)\in E^{2},\thinspace u\left(\lambda x+x'\right)=\lambda\thinspace u\left(x\right)+u\left(x'\right)}\]

Deux corollaires immédiats :

Corollaire 1

Par une application linéaire de E vers F :

l’image du vecteur nul de E est le vecteur nul de F.

En effet, en notant 0_{E} et 0_{F} les vecteurs nuls respectifs de E et F :

    \[u\left(0_{E}\right)=u\left(0_{E}+0_{E}\right)=u\left(0_{E}\right)+u\left(0_{E}\right)\]

Après simplification par u\left(0_{E}\right) dans le groupe additif (F,+), il reste bien : u\left(0_{E}\right)=0_{F}.

Corollaire 2

Par une application linéaire :

l’image de toute combinaison linéaire est la combinaison linéaire
correspondante (ie : avec les mêmes coefficients) des images.

En symboles :

    \[\forall n\in\mathbb{N}^{\star},\thinspace\forall\left(\lambda_{1},\cdots,\lambda_{n}\right)\in\mathbb{K}^{n},\thinspace\forall\left(x_{1},\cdots,x_{n}\right)\in E^{n}\]

    \[u\left(\sum_{i=1}^{n}\lambda_{i}x_{i}\right)=\sum_{i=1}^{n}\lambda_{i}\thinspace u\left(x_{i}\right)\]

Ceci se démontre aisément, par récurrence sur le nombre de termes.

En parcourant la deuxième section de l’article Comment définir une application linéaire ?  vous trouverez quelques exemples variés d’applications linéaires.

Ajoutons que l’ensemble \mathcal{L}\left(E,F\right) des applications linéaires de E vers F est naturellement muni d’une structure d’espace vectoriel, puisqu’il s’agit d’un sev de l’espace de toutes les applications de E vers F (linéaires ou non).

Lorsque E=F, la notation \mathcal{L}\left(E,F\right) se simplifie en \mathcal{L}\left(E\right). Les applications linéaires de E dans lui-même sont appelées les endomorphismes de E.

Quant aux applications linéaires de E dans \mathbb{K}, elle sont appelées formes linéaires sur E.

2 – Noyau et image : qu’est-ce donc ?

Définitions

Si u\in\mathcal{L}\left(E,F\right) alors :

l’image de u est l’ensemble des vecteurs de F qui sont atteints par u,
le noyau de u est l’ensemble des vecteurs de E dont l’image par u est nulle.

L’image et le noyau de u sont notés \text{Im}\left(u\right) et \ker\left(u\right). Ce sont des sev de F et de E respectivement.

Origine de la notation ker : « noyau » se dit Kern en allemand et kernel en anglais.

Plus généralement, si E' un sous-espace vectoriel de E et si F' un sous-espace vectoriel de F, alors :

  • l’image directe de E' par u est un sous-espace vectoriel de F,
  • l’image réciproque de F' par u est un sous-espace vectoriel de E.

Une preuve détaillée de la seconde partie de cette affirmation est donnée dans l’article :

Image directe / image réciproque d’une partie

L’image et le noyau de u apparaissent alors comme des cas particuliers :

  • en prenant E'=E, on trouve u\left\langle E'\right\rangle =\text{Im}\left(u\right)
  • en prenant F'=\left\{ 0_{F}\right\} , on trouve u^{-1}\left\langle \left\{ 0_{F}\right\} \right\rangle =\ker\left(u\right).

3 – Quelques exemples explicites

Exemple 1

L’application :

    \[\varphi:\mathbb{R}^{3}\rightarrow\mathbb{R},\thinspace\left(x,y,z\right)\mapsto x+y+z\]

est une forme linéaire, dont le noyau est le plan vectoriel d’équation x+y+z=0. Une base (parmi tant d’autres) de ce plan est :

    \[\mathcal{B}=\left(\left(1,-1,0\right),\:\left(0,1,-1\right)\right)\]

L’image de \varphi est \mathbb{R}, car tout \lambda\in\mathbb{R} peut s’écrire par exemple : \lambda=\varphi\left(\lambda,0,0\right).

Au début de la section 4, on verra ce qu’on peut dire – de manière générale – concernant l’image d’une forme linéaire.

Exemple 2

L’application :

    \[\Phi:\mathbb{R}^{4}\rightarrow\mathbb{R}^{4},\thinspace\left(x,y,z,t\right)\mapsto\left(x-y,x-z,y-z,x+y-2z\right)\]

est un endomorphisme, dont le noyau est :

    \begin{equation*}\begin{split}\ker\left(\Phi\right) & = \left\{ \left(x,y,z,t\right)\in\mathbb{R}^{4};\thinspace\Phi\left(x,y,z,t\right)=\left(0,0,0,0\right)\right\} \\& = \left\{ \left(x,x,x,t\right);\:x\in\mathbb{R}\text{ et }t\in\mathbb{R}\right\}\end{split}\end{equation*}


On reconnaît le plan \text{Vect}\left\{ \left(1,1,1,0\right),\:\left(0,0,0,1\right)\right\} .
En particulier \dim\left(\ker\left(\Phi\right)\right)=2 et donc, d’après le théorème du rang (voir section 8) :

    \[\dim\left(\text{Im}\left(\Phi\right)\right)=\dim\left(\mathbb{R}^{4}\right)-\dim\left(\ker\left(\Phi\right)\right)=4-2=2\]

Comme les vecteurs :

    \[v_{1}=\Phi\left(1,0,0,0\right)=\left(1,1,0,1\right)\]

et

    \[v_{2}=\Phi\left(0,1,0,0\right)=\left(-1,0,1,1\right)\]

sont indépendants et appartiennent à \text{Im}\left(\Phi\right), on voit que \left(v_{1},v_{2}\right) est une base de \text{Im}\left(\Phi\right).

Question

Sauriez-vous déterminer le noyau et l’image de l’application linéaire

    \[h\,:\,\mathbb{R}^{3}\rightarrow\mathbb{R}^{4},\:\left(x,y,z\right)\mapsto\left(x-y,\,y-z,\,x-z,\,z-x\right)\]

et trouver une base de chacun d’eux ? Solution en annexe.

Exemple 3

On note classiquement \Delta l’endomorphisme de \mathbb{R}\left[X\right] défini par :

    \[\forall P\in\mathbb{R}\left[X\right],\:\Delta\left(P\right)=P\left(X+1\right)-P\]

Par exemple, si P est le polynôme X^{3}-2X, alors :

    \begin{equation*}\begin{split}\Delta\left(P\right) & = \left(X+1\right)^{3}-2\left(X+1\right)-X^{3}+2X\\& = 3X^{2}+3X-1\end{split}\end{equation*}

Le noyau de \Delta est constitué des polynômes P vérifiant \forall t\in\mathbb{R},\thinspace P\left(t+1\right)=P\left(t\right).

Si un tel polynôme possède une racine réelle \alpha, alors :

    \[P\left(\alpha+2\right)=P\left(\left(\alpha+1\right)+1\right)=P\left(\alpha+1\right)=P\left(\alpha\right)=0\]

et de même P\left(\alpha+3\right)=0 et ainsi de suite …

Par récurrence, on constate que P\left(\alpha+n\right)=0, pour tout n\in\mathbb{Z}. De ce fait, P possède une infinité de racines : c’est le polynôme nul.

Et si P n’a pas de racines réelles, qu’à cela ne tienne: on considère Q=P-P\left(\alpha\right), avec \alpha\in\mathbb{R} quelconque. De toute évidence : \forall t\in\mathbb{R},\thinspace Q\left(t+1\right)=Q\left(t\right).

On peut donc appliquer ce qui précède à Q, et conclure que Q=0. En définitive, si P\in\ker\left(\Delta\right) alors P est constant.

Réciproquement, il est évident que les polynômes constants appartiennent à \ker\left(\Delta\right).

En conclusion : \ker\left(\Delta\right) est l’espace des polynômes constants (qui est une droite vectorielle). En particulier, \Delta n’est pas injectif puisque \ker\left(\Delta\right)\neq\{0\}.

Question

Sauriez-vous déterminer l’image de \Delta ? Solution en annexe.

Exemple 4

Revenons aux formes linéaires, pour dire un mot de la trace d’une matrice carrée.

A toute matrice carrée A de taille n et à termes dans \mathbb{K}, on associe la somme de ses termes diagonaux, appelée trace de A et notée \text{tr}\left(A\right).

    \[\text{Si}\quad A=\left[\begin{array}{ccccc}a_{1,1} & a_{1,2} & \cdots & \cdots & a_{1,n}\\a_{2,1} & a_{2,2} & \ddots & & \vdots\\\vdots & \ddots & \ddots & \ddots & \vdots\\\vdots & & \ddots & \ddots & a_{n-1,n}\\a_{n,1} & \cdots & \cdots & a_{n,n-1} & a_{n,n}\end{array}\right]\]

    \[\text{alors tr}\left(A\right)=\sum_{i=1}^{n}a_{i,i}\]

Il est clair que \text{tr} est une forme linéaire sur \mathcal{M}_{n}\left(\mathbb{K}\right).

On peut démontrer la :

Proposition

Si le corps \mathbb{K} est de caractéristique nulle, alors le noyau de \text{tr} (qui est, par définition, l’ensemble des matrices de trace nulle) est constitué des matrices semblables à une matrice de diagonale nulle.

ATTENTION … en caractéristique p (avec p premier), on n’a plus qu’une inclusion. En effet, une matrice de la forme PMP^{-1} avec M de trace nulle sera de trace nulle, mais la matrice unité de taille p à termes dans le corps \mathbb{Z}/p\mathbb{Z} est de trace nulle sans être semblable à une matrice de diagonale nulle.

Démontrons la proposition ci-dessus en nous limitant à des matrices de taille 2 (le cas général se traiterait par récurrence sur la taille de la matrice).

Preuve (cliquer pour déplier / replier)

Soit A=\left[\begin{array}{cc}a & b\\c & d\end{array}\right]\in\mathcal{M}_{2}\left(\mathbb{R}\right) telle que a+d=0.

Notons u l’endomorphisme canoniquement associé à A. Cela signifie que u\in\mathcal{L}\left(\mathbb{K}^{2}\right) et que A est la matrice de u relativement à la base canonique de \mathbb{K}^{2}.

Si u est une homothétie, disons u=\lambda\thinspace id{\mathbb{K}^{2}}, alors 2\lambda=\text{tr}\left(A\right)=0 et donc \lambda=0 (puisque \mathbb{K} n’est pas de caractéristique 2). La matrice A est nulle dans ce cas.

Et sinon, on sait qu’il existe e\in\mathbb{R}^{2} tel que la famille \left(e,\thinspace u\left(e\right)\right) soit libre (ceci résulte d’une caractérisation classique : un endomorphisme u est une homothétie si, et seulement si, pour tout vecteur x, la famille \left(x,u\left(x\right)\right) est liée). Cette famille est donc une base de \mathbb{K}^{2}, dans laquelle u est représenté par une matrice de la forme :

    \[M=\left[\begin{array}{cc}0 & \alpha\\1 & \beta\end{array}\right]\qquad\text{avec }\alpha,\beta\in\mathbb{K}\]

On voit alors que \beta=\text{tr}\left(M\right)=\text{tr}\left(A\right)=0 d’où la conclusion.

Question

Juste après la proposition précédente et dans la preuve de celle-ci, on a implicitement utilisé le fait que deux matrices semblables (en l’occurrence M et A) ont la même trace.
Sauriez-vous prouver ceci en toute généralité ?

Réponse en annexe.

Exemple 5

On note \mathcal{C}^{0}\left(\left[0,1\right],\mathbb{R}\right) l’espace vectoriel des applications continues de \left[0,1\right] dans \mathbb{R} et \mathcal{C}^{1}\left(\left[0,1\right],\mathbb{R}\right) celui des applications de classe \mathcal{C}^{1} (c’est-à-dire : dérivables et à dérivée continue). On considère alors l’application :

    \[D:\mathcal{C}^{1}\left(\left[0,1\right],\mathbb{R}\right)\rightarrow\mathcal{C}^{0}\left(\left[0,1\right],\mathbb{R}\right),\thinspace f\mapsto f'\]

D est linéaire (propriété bien connue de la dérivation). Son noyau est constitué des applications constantes. Son image est \mathcal{C}^{0}\left(\left[0,1\right],\mathbb{R}\right) tout entier (on sait en effet que toute application continue sur un intervalle possède des primitives); autrement dit D est surjective.

En choisissant pour ensemble de départ l’espace \mathcal{D}\left(\left[0,1\right],\mathbb{R}\right) des applications dérivables de \left[0,1\right] dans \mathbb{R} et, comme ensemble d’arrivée, l’espace \mathbb{R}^{\left[0,1\right]} de toutes les applications de \left[0,1\right] dans \mathbb{R}, la dérivation serait toujours linéaire, son noyau serait toujours le même (la droite vectorielle constituée des applications constantes) mais elle ne serait pas surjective ! Il existe en effet des applications de \left[0,1\right] dans \mathbb{R} ne possédant pas de primitives (d’ailleurs, d’après un célèbre théorème de Darboux, une application de \left[0,1\right] dans \mathbb{R} doit nécessairement vérifier la propriété des valeurs intermédiaires pour posséder une primitive).

Question

I désigne un intervalle non trivial de \mathbb{R}. Sauriez-vous trouver un exemple d’application f:I\rightarrow\mathbb{R} ne possédant aucune primitive ?

Solution en annexe.

4 – Injectivité et noyau

Rappelons qu’une application f:X\rightarrow Y est dite injective lorsque deux éléments distincts de X ont nécessairement des images distinctes par f. Formulation équivalente et plus maniable :

    \[\forall\left(x,x'\right)\in X^{2},\thinspace f\left(x\right)=f\left(x'\right)\Rightarrow x=x'\]

Voir à ce sujet la vidéo : Correspondances, Fonctions, Applications (1)

Dans le cas d’une application linéaire, il est commode de caractériser l’injectivité par le noyau :

Proposition

Soient E,F deux espaces vectoriels et soit u\in\mathcal{L}\left(E,F\right). Alors :

    \[u\text{ est injective}\Leftrightarrow\ker\left(u\right)=\left\{0_{E}\right\}\]

Preuve (cliquer pour déplier / replier)

Supposons d’abord u injective.

Comme u est linéaire, on sait que u\left(0_{E}\right)=0_{F}, ce qui dit exactement que \left\{0_{E}\right\} \subset\ker\left(u\right).

En outre, si x\in\ker\left(u\right), alors u\left(x\right)=0_{F}=u\left(0_{E}\right) et donc x=0_{E} par injectivité.

Ceci montre que \ker\left(u\right)\subset\left\{0_{E}\right\}. On a prouvé par double inclusion que :

    \[\fcolorbox{black}{myBlue}{$\ker\left(u\right)=\left\{0_{E}\right\}$}\]

Réciproquement, supposons que \ker\left(u\right)=\left\{0_{E}\right\} et donnons-nous deux vecteurs x,x'\in E tels que u\left(x\right)=u\left(x'\right).

Cette égalité peut s’écrire u\left(x-x'\right)=0_{F}; elle exprime donc le fait que x-x'\in\ker\left(u\right). Ainsi x=x' et l’injectivité de u est établie.

Donnons deux exemples.

Exemple 1

Notons E l’espace des applications de classe \mathcal{C}^{1} de \left[0,1\right] dans \mathbb{R} qui s’annulent en 0.

L’application

    \[\fcolorbox{black}{myBlue}{$\psi:E\rightarrow\mathcal{C}^{0}\left(\left[0,1\right],\mathbb{R}\right),\thinspace f\mapsto f'+f$}\]

est injective.En effet, si f\in\ker\left(\psi\right) alors f est solution sur \left[0,1\right] de l’équation différentielle y'+y=0, donc il existe \lambda\in\mathbb{R} tel que f\left(t\right)=\lambda\thinspace e^{-t} pour tout t\in\left[0,1\right]. Comme de plus f\left(0\right)=0, alors \lambda=0. Ainsi \ker\left(\psi\right)=\left{ 0\right} d’où la conclusion.

Exemple 2

Soit E un \mathbb{K}-espace vectoriel et soient A,B deux sev de E. Alors l’application :

    \[\fcolorbox{black}{myBlue}{$\sigma:A\times B\rightarrow E,\thinspace\left(a,b\right)\mapsto a+b$}\]

est injective si et seulement si A\cap B=\left\{0_{E}\right\}.

En effet, supposons que A\cap B=\left\{0_{E}\right\} et soit \left(a,b\right)\in\ker\left(\sigma\right). Alors a+b=0_{E}, c’est-à-dire a=-b. Comme B est stable par combinaison linéaire, alors -b\in B. Donc a\in A\cap B et donc a=0_{E}. Ceci montre que \ker\left(\sigma\right)=\left\{\left(0_{E},0_{E}\right)\right\} et l’injectivité de \sigma est établie.

Réciproquement, supposons \sigma injective et soit i\in A\cap B. Alors \left(i,-i\right)\in A\times B et \sigma\left(i,-i\right)=0_{E}, donc \left(i,-i\right)\in\ker\left(\sigma\right), c’est-à-dire \left(i,-i\right)=\left(0_{E},0_{E}\right), ou encore i=0_{E}.

5 – Quelques exemples de nature théorique

Image d’une forme linéaire

Dans le premier exemple de la section 3, on a rencontré une forme linéaire surjective.

D’une manière générale, si E est un \mathbb{K}-espace vectoriel et si \varphi:E\rightarrow\mathbb{K} est une forme linéaire, alors \text{Im}\left(\varphi\right) est un sous-espace vectoriel de \mathbb{K}, c’est-à-dire \text{Im}\left(\varphi\right)=\left\{ 0\right\} ou \text{Im}\left(\varphi\right)=\mathbb{K}. Retenons ceci :

Une forme linéaire est nécessairement nulle ou surjective.

Il n’y a pas de demi-mesure : soit tous les scalaires sont atteints par \varphi, soit 0 est le seul scalaire atteint.

Concernant le noyau d’une forme linéaire, voir la section 6 plus bas.

Eléments propres

Considérons un \mathbb{K}-espace vectoriel et un endomorphisme u de E. Par définition, un scalaire \lambda est une valeur propre de u lorsqu’il existe x\in E-\left\{ 0_{E}\right\} tel que u\left(x\right)=\lambda x. Un tel vecteur x est appelé un vecteur propre associé à la valeur propre \lambda. L’ensemble des valeurs propres de u est une partie de \mathbb{K}, appelée spectre de u et notée \text{sp}\left(u\right).

Si \lambda\in\mathbb{K}, alors :

    \[\lambda\in\text{sp}\left(u\right)\Leftrightarrow\ker\left(u-\lambda\thinspace id_{E}\right)\neq\left\{0_{E}\right\} \Leftrightarrow u-\lambda\thinspace id_{E}\text{ non injectif}\]

Lorsque \lambda est valeur propre de u, l’ensemble \ker\left(u-\lambda\thinspace id_{E}\right) est constitué du vecteur nul et des vecteurs propres associés à \lambda.

On l’appelle le sous-espace vectoriel propre pour u, associé à \lambda.

L’étude des « éléments propres » est au cœur de la réduction des endomorphismes, qui est une question centrale en algèbre linéaire.
A ce sujet, je vous invite à consulter les vidéos éléments propres d’un endomorphisme et étude spectrale de l’endomorphisme f\mapsto[x\mapsto f(x+1)]

Noyau d’une restriction

Noyau d’une restriction – Si u\in\mathcal{L}\left(E,F\right) et si E' est un sous-espace vectoriel de E, on peut s’intéresser à la restriction de u à E', qui est par définition l’application

    \[E'\rightarrow F,\thinspace x\mapsto u\left(x\right)\]

Cette application est généralement notée u_{\mid E'}. Son noyau est l’ensemble des vecteurs de E' dont l’image par u est nulle; autrement dit :

    \[\boxed{\ker\left(u_{\mid E'}\right)=E'\cap\ker\left(u\right)}\]

Voici, en exercice, une question pour laquelle cette notion se révèle utile :

Question

Soient E un \mathbb{K}-espace vectoriel de dimension finie et f,g des endomorphismes de E.
Prouver que :

    \[\dim\left(\ker\left(f+g\right)\right)\leqslant\dim\left(\ker\left(f\right)\cap\ker\left(g\right)\right)+\dim\left(\text{Im}\left(f\right)\cap\text{Im}\left(g\right)\right)\]

Une solution est donnée en annexe.

Noyau ou image d’un polynôme d’endomorphisme

Avant tout, si vous avez besoin d’une petite piqure de rappel au sujet des polynômes d’endomorphismes, je vous suggère de consulter les vidéos Polynômes d’endomorphisme (1) et Polynômes d’endomorphisme (2)

Il est utile de connaître le résultat suivant :

Lemme

Si u est un endomorphisme et si P\in\mathbb{K}\left[X\right], alors le noyau et l’image de P\left(u\right) sont stables par tout endomorphisme f qui commute avec u.

Preuve (cliquer pour déplier / replier)

Si f et u commute, alors f et u^{k} commutent pour tout k\in\mathbb{N} et donc f et P\left(u\right) commutent aussi. Ceci étant dit :

  • Pour montrer que \ker\left(P\left(u\right)\right) est stable par f, on se donne x\in\ker\left(P\left(u\right)\right) et l’on vérifie que f\left(x\right)\in\ker\left(P\left(u\right)\right) :

        \begin{equation*}\begin{split}\left[P\left(u\right)\right]\left(f\left(x\right)\right) & = \left[P\left(u\right)\circ f\right]\left(x\right) \\& = \left[f\circ P\left(u\right)\right]\left(x\right) \\& = f\left(\left[P\left(u\right)\right]\left(x\right)\right) \\& = f\left(0_{E}\right) \\& = 0_{E}\end{split}\end{equation*}

  • Pour montrer que \text{Im}\left(P\left(u\right)\right) est stable par f, on se donne y\in\text{Im}\left(P\left(u\right)\right) et l’on vérifie que f\left(y\right)\in\text{Im}\left(P\left(u\right)\right). En posant y=\left[P\left(u\right)\right]\left(x\right) pour un certain x\in E :

        \begin{equation*}\begin{split}f\left(y\right) & = f\left(\left[P\left(u\right)\right]\left(x\right)\right) \\& = \left(f\circ P\left(u\right)\right)\left(x\right) \\& = \left(P\left(u\right)\circ f\right)\left(x\right) \\& = \left[P\left(u\right)\right]\left(f\left(x\right)\right) \\& \in \text{Im}\left(P\left(u\right)\right)\end{split}\end{equation*}

Voici un exemple d’utilisation de ce résultat.

Exemple (dans l’exemple …)

Dans l’espace \mathcal{L}\left(\mathcal{C}^{\infty}\right), l’endomorphisme de dérivation ne possède pas de racine carrée.
Notons D l’endomorphisme de dérivation :

    \[D:\mathcal{C}^{\infty}\left(\mathbb{R},\mathbb{R}\right)\rightarrow\mathcal{C}^{\infty}\left(\mathbb{R},\mathbb{R}\right),\thinspace f\mapsto f'\]

et supposons l’existence de \varphi\in\mathcal{L}\left(\mathcal{C}^{\infty}\right) vérifiant \varphi^{2}=D.Pour tout \lambda\in\mathbb{R}, on sait que \ker\left(D-\lambda\thinspace id\right)=\mathbb{R}e_{\lambda},e_{\lambda} désigne l’application \mathbb{R}\rightarrow\mathbb{R},\thinspace t\mapsto e^{\lambda t}.Comme \varphi et D commutent, la droite vectorielle \mathbb{R}e_{\lambda} est stable par \varphi et il existe donc \mu\in\mathbb{R} tel que \varphi\left(e_{\lambda}\right)=\mu\thinspace e_{\lambda}. Mais il s’ensuit que \lambda\thinspace e_{\lambda}=D\left(e_{\lambda}\right)=\varphi^{2}\left(e_{\lambda}\right)=\mu^{2}e_{\lambda} et donc que \lambda=\mu^{2}, ce qui est absurde si \lambda<0.

Dans une vidéo qui sera prochainement mise en ligne, on présentera une application plus consistante, à savoir que pour toute famille d’endomorphismes diagonalisables qui commutent deux à deux, on peut trouver une base commune de diagonalisation.

6 – Hyperplans

Commençons par préciser le vocabulaire. Considérons un espace vectoriel E et un sous-espace vectoriel H de E.

Définition

On dit que H est un hyperplan de E si H possède une droite supplémentaire, autrement dit s’il existe a\in E tel que :

    \[E=H\oplus\mathbb{K}a\]

Si E est de dimension finie, ceci revient à dire que \dim\left(H\right)=\dim\left(E\right)-1.

Mais lorsque E est de dimension infinie, cette dernière formulation n’a pas de sens ! En revanche, on dispose de la caractérisation suivante, valable en dimension quelconque :

Proposition

H est un hyperplan de E si, et seulement s’il existe une forme linéaire sur E, non nulle et de noyau H.

Preuve (cliquer pour déplier / replier)

Sens direct

Supposons l’existence d’une forme linéaire \varphi:E\rightarrow\mathbb{K}, non nulle et de noyau H.

Choisissons a\in E-H et montrons que tout x\in E s’écrit, de façon unique, sous la forme :

    \[x=h+\lambda a\qquad\text{avec }h\in H\text{ et }\lambda\in\mathbb{K}\]

Raisonnons par analyse / synthèse. Si un tel couple \left(h,\lambda\right) convient, alors :

    \[\varphi\left(x\right)=\varphi\left(h\right)+\lambda\thinspace\varphi\left(a\right)\]

et donc, comme \varphi\left(h\right)=0 et \varphi\left(a\right)\neq0 :

    \[\lambda=\frac{\varphi\left(x\right)}{\varphi\left(a\right)}\]

Ainsi, \lambda est déterminé et, par là-même, h aussi. Réciproquement, en posant :

    \[\lambda=\frac{\varphi\left(x\right)}{\varphi\left(a\right)}\qquad\text{et}\qquad h=x-\frac{\varphi\left(x\right)}{\varphi\left(a\right)}a\]

on constate que \lambda a\in\mathbb{K}a (évident !), que h\in H, puisque :

    \[\varphi\left(h\right)=\varphi\left(x\right)-\frac{\varphi\left(x\right)}{\varphi\left(a\right)}\thinspace\varphi\left(a\right)=0\]

et que x=h+\lambda a (évident !). On a prouvé que E=H\oplus\mathbb{K}a.

Sens réciproque

Supposons maintenant l’existence d’un vecteur a\neq0_{E} tel que E=H\oplus\mathbb{K}a.

On sait qu’on peut définir une application linéaire par ses restrictions à des sev supplémentaires. Construisons donc une forme linéaire \varphi:E\rightarrow\mathbb{K} en imposant \varphi\left(h\right)=0 pour tout h\in H et \varphi\left(a\right)=1.

Manifestement, \varphi n’est pas la forme linéaire nulle ! Il reste à constater que \ker\left(\varphi\right)=H.

L’inclusion H\subset\ker\left(\varphi\right) est déjà évidente. Pour l’inclusion inverse, donnons-nous x\in\ker\left(\varphi\right) et prouvons que x\in H. Pour cela, on commence par décomposer x sous la forme x=h+\lambda a, avec h\in H et \lambda\in\mathbb{K}. Alors :

    \[0=\varphi\left(x\right)=\varphi\left(h\right)+\lambda\thinspace\varphi\left(a\right)=\lambda\]

et donc x=h, d’où la conclusion.

7 – Equations linéaires

Définition

On appelle équation linéaire toute équation de la forme L\left(x\right)=b (et d’inconnue x) où E,F sont deux espaces vectoriels sur un même corps \mathbb{K}, L une application linéaire de E dans F et b un vecteur de F.

L’ensemble \mathcal{S} des solutions est de l’une des deux formes suivantes :

    \[\boxed{\mathcal{S}=\emptyset\qquad\text{ou}\qquad\mathcal{S}=x_{0}+\ker\left(L\right)}\]

En effet, si \mathcal{S}\neq\emptyset alors en notant x_{0} une solution particulière (x_{0} est donc un vecteur de E vérifiant L\left(x_{0}\right)=b), on constate que, pour tout x\in E :

    \[L\left(x\right)=b\Leftrightarrow L\left(x-x_{0}\right)=0_{F}\Leftrightarrow x-x_{0}\in\ker\left(L\right)\]

La résolution de l’équation L(x)=b se fait donc en deux temps :

  • Résolution de l’équation homogène associée L\left(x\right)=0_{F}
  • Recherche d’une solution particulière x_{0}

ATTENTION … Il convient d’interpréter correctement l’écriture :

    \[x_0+\ker(L)\]

On note ainsi l’ensemble des vecteurs de la forme x_0+vv\in\ker(L) est arbitraire.

Donnons deux exemples.

Suite numériques vérifiant une relation de récurrence linéaire

Les suites u\in\mathbb{R}^{\mathbb{N}} vérifiant :

    \[\fcolorbox{black}{myBlue}{$\forall n\in\mathbb{N},\thinspace u_{n+1}-u_{n}=n^{2}$}\]

sont les solutions de l’équation linéaire L\left(u\right)=b où : 

  • L\in\mathcal{L}\left(\mathbb{R}^{\mathbb{N}}\right) est l’endomorphisme défini par :

        \[L\left(u\right)=v\qquad\text{avec }\forall n\in\mathbb{N},\thinspace v_{n}=u_{n+1}-u_{n}\]

  • b\in\mathbb{R}^{\mathbb{N}} est la suite définie par \forall n\in\mathbb{N},\thinspace b_{n}=n^{2}

Solutions d’une équation différentielle linéaire

Les applications deux fois dérivables f:\mathbb{R\rightarrow\mathbb{R}} vérifiant :

    \[\fcolorbox{black}{myBlue}{$\forall t\in\mathbb{R},\thinspace t^{2}f''\left(t\right)+f\left(t\right)=1$}\]

sont les solutions de l’équations L\left(f\right)=b où : 

  • L\in\mathcal{L}\left(\mathcal{D}^{2}\left(\mathbb{R},\mathbb{R}\right),\thinspace\mathbb{R}^{\mathbb{R}}\right) est l’application linéaire définie par :

        \[L\left(f\right)=g\qquad\text{avec }\forall t\in\mathbb{R},\thinspace g\left(t\right)=t^{2}\thinspace f''\left(t\right)+f\left(t\right)\]

  • b est l’application constante t\mapsto1.

8 – Le théorème du rang

Théorème et Définition

Etant donnés deux \mathbb{K}-espaces vectoriels E et F, si E de dimension finie et si u est une application linéaire de E dans F, alors : 

  • \text{Im}\left(u\right) est de dimension finie
  • \dim\left(E\right)=\dim\left(\ker\left(u\right)\right)+\dim\left(\text{Im}\left(u\right)\right)\qquad (formule du rang)

L’entier \dim\left(\text{Im}\left(u\right)\right) est appelé « rang » de u et noté \text{rg}\left(u\right).

La démonstration est courte et instructive, alors on en profite 🙂

Preuve (cliquer pour déplier / replier)

Avant tout, il faut observer que \text{Im}\left(u\right) est évidemment de dimension finie si c’est déjà le cas de F. Et sinon, on revient à la définition : rappelons qu’un espace vectoriel F est dit « de dimension finie » lorsqu’il existe une famille finie et génératrice de F. Or par hypothèse, il existe une famille finie \left(e_{1},\cdots,e_{n}\right) qui est génératrice de E. Pour tout y\in\text{Im}\left(u\right), il existe x\in E tel que y=u\left(x\right) et il existe des scalaires \lambda_{1},\cdots,\lambda_{n} tels que :

    \[x=\sum_{i=1}^{n}\lambda_{i}e_{i}\]

d’où par linéarité :

    \[y=\sum_{i=1}^{n}\lambda_{i}\thinspace u\left(e_{i}\right)\]

Ceci montre que la famille finie \left(u\left(e_{1}\right),\cdots,u\left(e_{n}\right)\right) est génératrice de \text{Im}\left(u\right). On a réglé le premier point.

Pour établir la formule du rang, la clef consiste à voir que \dim\left(E\right)-\dim\left(\ker\left(u\right)\right) est la dimension d’un sev supplémentaire de \ker\left(u\right) dans E. Il suffit donc de montrer que \text{Im}\left(u\right) est isomorphe à un tel sev.

Soit donc S un sev de E tel que :

    \[E=S\oplus\ker\left(u\right)\]

Considérons l’application

    \[\varphi:S\rightarrow\text{Im\ensuremath{\left(u\right)}},\thinspace x\mapsto u\left(x\right)\]

Attention, cette application ne doit pas être confondue avec u. Elle est, en quelque sorte, une « bi-restriction » de u dans la mesure où elle a été obtenue en « rétrécissant » les espaces de départ et d’arrivée.

Il s’agit de montrer que \varphi est un isomorphisme, c’est-à-dire que :

  • \varphi est linéaire
  • \varphi est injective
  • \varphi est surjective

La linéarité de \varphi ne fait aucun doute, puisque u est linéaire !

Pour montrer que \varphi est injective, il suffit (cf. section 4) de voir que son noyau est réduit à \left\{ 0_{E}\right\} .

Or, d’après ce qui a été dit au paragraphe 3 de la section 5 et vu que la somme S+\ker\left(u\right) est directe :

    \[\ker\left(\varphi\right)=S\cap\ker\left(u\right)=\left\{ 0_{E}\right\}\]

Enfin, si y\in\text{Im}\left(u\right), alors il existe x\in E tel que y=u\left(x\right) puis, en décomposant x selon la somme directe, il existe s\in S et k\in\ker\left(u\right) tels que x=s+k, d’où par linéarité : y=u\left(s\right). Et cette dernière égalité peut encore s’écrire y=\varphi\left(s\right). La surjectivité de \varphi est établie.

Voici un corollaire classique et d’usage courant :

Corollaire

Si E,F sont des \mathbb{K}-espaces vectoriels de même dimension finie et si u\in\mathcal{L}\left(E,F\right), alors :

    \[u\text{ injective}\Leftrightarrow u\text{ surjective}\]

Le théorème rang a été utilisé dans l’exemple 2 de la section 3 et le sera de nouveau dans l’annexe. Voici un autre exemple :

Deux projecteurs assez voisins sont de même rang

On considère un \mathbb{R}-espace vectoriel normé de dimension finie. La norme en vigueur sur E est notée \left\Vert \:\right\Vert et l’on munit \mathcal{L}\left(E\right) de la norme (dite « norme d’opérateur ») définie par :

    \[\fcolorbox{black}{myBlue}{$\forall f\in\mathcal{L}\left(E\right),\:\left\Vert f\right\Vert_{\text{op}}=\displaystyle{\sup_{x\in E-\left\{0_{E}\right\}}\frac{\left\Vert f\left(x\right)\right\Vert}{\left\Vert x\right\Vert}}$}\]

On considère alors deux projecteurs p,q et l’on prouve que :

    \[\left\Vert p-q\right\Vert_{\text{op}}<1\Rightarrow\text{rg }\left(p\right)=\text{rg }\left(q\right)\]

Si x\in\text{Im }\left(p\right)\cap\ker\left(q\right), alors p\left(x\right)=x et q\left(x\right)=0_{E}, donc :

    \[\left\Vert x\right\Vert =\left\Vert \left(p-q\right)\left(x\right)\right\Vert \leqslant\left\Vert p-q\right\Vert_{\text{op}} \left\Vert x\right\Vert\]

d’où x=0_{E}. La restriction q':\text{Im }\left(p\right)\rightarrow E,x\mapsto q\left(x\right) est donc injective. Le théorème du rang appliqué à q' donne :\text{rg }\left(p\right)=\text{rg }\left(q\circ p\right). Par conséquent :

    \[\text{rg }\left(p\right)\leqslant\text{rg }\left(q\right)\]

Mais p et q jouent des rôles symétriques et l’inégalité inverse est donc aussi vraie.

Et voici un exemple d’utilisation du corollaire énoncé plus haut :

Isomorphisme d’interpolation

Etant donnés un entier n\in\mathbb{N} et des scalaires a_{0},\cdots,a_{n} tous distincts, l’application

    \[\fcolorbox{black}{myBlue}{$\varphi:\mathbb{K}_{n}\left[X\right]\rightarrow\mathbb{K}^{n+1},\:P\mapsto\left(P\left(a_{0}\right),\cdots,P\left(a_{n}\right)\right)$}\]

est un isomorphisme d’espaces vectoriels.

En effet, après avoir constaté la linéarité de \varphi, on examine son noyau …

Si P\in\ker\left(\varphi\right), alors chacun des scalaires a_{k} est une racine de P dans \mathbb{K}, d’où l’on déduit qu’il existe Q\in\mathbb{K}\left[X\right] tel que :

    \[P=\left(X-a_{0}\right)\cdots\left(X-a_{n}\right)Q\]

Si Q etait non nul, le degré de P serait supérieur ou égal à n+1, ce qui est absurde ! Donc Q=0 et, par là-même, P=0.

C’est maintenant qu’on invoque le corollaire : puisque les espaces vectoriels \mathbb{K}_{n}\left[X\right] et \mathbb{K}^{n+1} sont de même dimension, alors \varphi est aussi surjective, d’où la conclusion.

9 – Quotienter par le noyau

La théorie des espaces vectoriels quotients n’est plus enseignée depuis belle-lurette, ni en premier cycle universitaire ni en classes préparatoires. Il va donc falloir expliquer un peu de quoi il retourne …

Dans ce qui suit, on considère un \mathbb{K}-espace vectoriel E ainsi qu’un sev N de E et l’on définit sur E une relation binaire, notée \sim, en posant :

    \[\fcolorbox{black}{myBlue}{$\forall\left(x,y\right)\in E^{2},\:y\sim x\Leftrightarrow y-x\in N$}\]


Il est facile de voir qu’il s’agit d’une relation d’équivalence. Voir à ce sujet la vidéo Théorème de Lagrange et Ordre d’un élément

Si x\in E, alors la classe d’équivalence de x est (par définition) :

    \begin{equation*}\begin{split}\overline{x} & = \left\{ y\in E;\thinspace y-x\in N\right\} \\& = \left\{ y\in E;\thinspace\exists n\in N,\thinspace y=x+n\right\} \\& = \left\{ x\right\} +N\end{split}\end{equation*}

En particulier, N n’est autre que la classe du vecteur nul.

L’ensemble des classes d’équivalence est noté E/N.

On va maintenant définir deux opérations (pour les puristes : une opération interne et une opération externe à opérateurs dans \mathbb{K}) :

  • si c et c' sont deux classes d’équivalence, alors en choisissant x\in c et x'\in c', on pose :

        \[\fcolorbox{black}{myBlue}{$c+c'=\overline{x+x'}$}\]

  • si c est une classe d’équivalence et si \lambda\in\mathbb{K}, alors en choisissant x\in c, on pose :

        \[\fcolorbox{black}{myBlue}{$\lambda c=\overline{\lambda x}$}\]

Comme toujours dans ce genre de situation, il faut s’assurer que :

  • ces définitions ont un sens, c’est-à-dire qu’en dépit des apparences :
    • la classe \overline{x+x'} ne dépend pas des représentants x et x' choisis dans c et dans c'
    • la classe \overline{\lambda x} ne dépend pas du représentant x choisi dans c
  • les opérations d’addition et de multiplication par un scalaire, qui viennent d’être définies, confèrent à E/N une structure de \mathbb{K}-espace vectoriel.

Je vous passe les détails de ces vérifications (qui ne soulèvent aucune difficulté et constituent un bon exercice !), moyennant quoi on dispose désormais de l’espace vectoriel E/N (appelé espace quotient de E par N).

Proposition

L’espace E/N est isomorphe à tout supplémentaire de N dans E.

Preuve (cliquer pour déplier / replier)

Il suffit d’adapter légèrement la preuve de la 2ème partie du théorème du rang.Soit S tel que E=S\oplus N. L’application

    \[\Phi:S\rightarrow E/N,\thinspace x\mapsto\overline{x}\]

est linéaire puisque, par définition des opérations dans E/N :

    \[\forall\lambda\in\mathbb{K},\thinspace\forall\left(x,y\right)\in S^{2},\thinspace\overline{\lambda x+y}=\overline{\lambda x}+\overline{y}=\lambda\thinspace\overline{x}+\overline{y}\]

Elle est aussi injective, car :

    \[x\in\ker\left(\Phi\right)\Leftrightarrow x\in S\cap N\Leftrightarrowx=\{0_{E}\}\]

En outre, \Phi est surjective car si c\in E/N, alors il existe x\in E tel que c=\overline{x}. On peut écrire x=s+\nu avec s\in S et \nu\in N. On voit alors que c=\overline{s}=\Phi\left(s\right).

Corollaire

Si u\in\mathcal{L}\left(E,F\right), alors les espaces E/\ker\left(u\right) et \text{Im}\left(u\right) sont isomorphes.

Preuve (cliquer pour déplier / replier)

En effet, si S désigne un supplémentaire de \ker\left(u\right) dans E, on sait :

  • que E/\ker\left(u\right) est isomorphe à S d’après le théorème précédent,
  • que S est isomorphe à \text{Im}\left(u\right) d’après la deuxième partie du théorème du rang.

d’où le résultat.

Donnons un exemple d’utilisation de ce corollaire.

Exemple

Supposons E de dimension finie et soit f\in\mathcal{L}\left(E\right). L’ensemble :

    \[\fcolorbox{black}{myBlue}{$A=\left\{ u\in\mathcal{L}\left(E\right);\thinspace u\circ f=0\right\}$}\]

est un sev de \mathcal{L}\left(E\right). Calculons sa dimension.

Il est déjà clair que \dim\left(A\right)\leqslant\dim\left(\mathcal{L}\left(E\right)\right), c’est-à-dire : \dim\left(A\right)\leqslant n^{2}.

Pour déterminer cette dimension, l’idée est d’établir un isomorphisme entre A et un espace vectoriel dont la dimension est connue.

Etant donné u\in\mathcal{L}\left(E\right), la condition u\in A équivaut à \text{Im}\left(f\right)\subset\ker\left(u\right). On comprend ainsi que, pour définir un élément u de A, il est nécessaire et suffisant d’en connaître la restriction à un supplémentaire de \text{Im}\left(f\right) dans E.

Une façon de formaliser cette idée consiste à s’intéresser à l’application

    \[\Phi:A\rightarrow\mathcal{L}\left(E/\text{Im}\left(f\right),E\right),\:u\mapsto\left[c\mapsto u\left(x\right)\right]\]

x désigne un quelconque représentant de la classe c.

Cette définition tient la route puisque, si x et x' sont deux représentants d’une même classe c, alors x-x'\in\text{Im}\left(f\right) et donc u\left(x\right)=u\left(x'\right).

La linéarité de \Phi se prouve de manière « automatique » … en effet, si \left(u,v\right)\in A^{2} et \lambda\in\mathbb{K}, alors pour tout c\in E/\text{Im}\left(f\right) et en notant x\in c :

    \begin{equation*}\begin{split}\left[\Phi\left(\lambda u+v\right)\right]\left(c\right) & = \left(\lambda u+v\right)\left(x\right)\\& = \lambda\thinspace u\left(x\right)+v\left(x\right)\\& = \lambda\thinspace\left[\Phi\left(u\right)\right]\left(c\right)+\left[\Phi\left(v\right)\right]\left(c\right)\\& = \left(\lambda\thinspace\Phi\left(u\right)+\Phi\left(v\right)\right)\left(c\right)\end{split}\end{equation*}


Enfin (et surtout), \Phi est bijective. En effet :

  • Injectivité –  si u\in\ker\left(\Phi\right) alors, pour tout x\in E :

        \[u\left(x\right)=\left[\Phi\left(u\right)\right]\left(\overline{x}\right)=0_{E}\]

    c’est-à-dire u=0.
  • Surjectivité – pour tout \ell\in\mathcal{L}\left(E/\text{Im}\left(f\right),E\right), l’application

        \[u:E\rightarrow E,\thinspace x\mapsto\ell\left(\overline{x}\right)\]

    est un endomorphisme de E vérifiant \Phi\left(u\right)=\ell.

Au final :

    \[\dim\left(A\right)=\dim\left(\mathcal{L}\left(E/\text{Im}\left(f\right),E\right)\right)=\dim\left(E/\text{Im}\left(f\right)\right)\:\dim\left(E\right)\]

ou encore :

    \[\boxed{\dim\left(A\right)=\dim\left(\ker\left(f\right)\right)\thinspace\dim\left(E\right)}\]

Annexe : réponses aux questions

Détermination du noyau et de l’image de l’application linéaire

    \[h\,:\,\mathbb{R}^{3}\rightarrow\mathbb{R}^{4},\:\left(x,y,z\right)\mapsto\left(x-y,\,y-z,\,x-z,\,z-x\right)\]

D’une part :

    \[\ker\left(h\right)=\left\{ \left(x,y,z\right)\in\mathbb{R}^{3};\thinspace x=y\text{ et }y=z\right\} =\mathbb{R}\left(1,1,1\right)\]

ce qui montre, via la formule du rang, que :

    \[\text{rg}\left(h\right)=\dim\left(\mathbb{R}^{3}\right)-\dim\left(\ker\left(h\right)\right)=3-1=2\]

En particulier, on voit déjà que h n’est pas surjective (d’ailleurs, lorsque \dim\left(E\right)<\dim\left(F\right), aucune application linéaire de E vers F n’est surjective !).

En outre :

    \begin{equation*}\begin{split}\text{Im}\left(h\right) & = \left\{ x\left(1,0,1,-1\right)+y\left(-1,1,0,0\right)+z\left(0,-1,-1,1\right);\:\left(x,y,z\right)\in\mathbb{R}^{3}\right\} \\& = \text{vect}\left\{ \left(1,0,1,-1\right),\thinspace\left(-1,1,0,0\right),\thinspace\left(0,-1,-1,1\right)\right\} \\& = \text{vect}\left\{ \left(1,0,1,-1\right),\thinspace\left(-1,1,0,0\right)\right\}\end{split}\end{equation*}

la dernière égalité résultant de la relation :

    \[\left(0,-1,-1,1\right)=-\left(1,0,1,-1\right)-\left(-1,1,0,0\right)\]

Et comme la famille \left(\left(1,0,1,-1\right),\thinspace\left(-1,1,0,0\right)\right) est libre, c’est une base du plan vectoriel \text{Im}\left(h\right).

Détermination de l’image de l’endomorphisme \Delta.

On note comme d’habitude \mathbb{R}_{n}\left[X\right] l’espace des polynômes de degré inférieur ou égal à n.

On sait que \dim\left(\mathbb{R}_{n}\left[X\right]\right)=n+1 puisque la famille \left(1,X,\cdots,X^{n}\right) est une base de cet espace.

Si n\in\mathbb{N}^{\star} et si P\in\mathbb{R}_{n}\left[X\right] n’est pas constant, alors \deg\left(\Delta\left(P\right)\right)=\deg\left(P\right)-1.

Et si P est constant, on sait que \Delta\left(P\right)=0. Ceci prouve que \Delta\left(P\right)\in\mathbb{R}_{n-1}\left[X\right].

On dispose donc de l’application \mathbb{R}_{n}\left[X\right]\rightarrow\mathbb{R}_{n-1}\left[X\right],\thinspace P\mapsto\Delta\left(P\right), que l’on peut noter \Delta_{n}.

Comme

    \[\ker\left(\Delta_{n}\right)=\ker\left(\Delta\right)\cap\mathbb{R}_{n}\left[X\right]=\mathbb{R}_{0}\left[X\right]\cap\mathbb{R}_{n}\left[X\right]=\mathbb{R}_{0}\left[X\right]\]

la formule du rang appliquée à \Delta_{n} donne :

    \begin{equation*}\begin{split}\text{rg}\left(\Delta_{n}\right) & = \dim\left(\mathbb{R}_{n}\left[X\right]\right)-\dim\left(\ker\left(\Delta_{n}\right)\right)\\& =\left(n+1\right)-1\\& =n\\& =\dim\left(\mathbb{R}_{n-1}\left[X\right]\right)\end{split}\end{equation*}

Il s’ensuit que \text{Im}\left(\Delta_{n}\right)=\mathbb{R}_{n-1}\left[X\right], autrement dit : \Delta_{n} est surjective.

Finalement \Delta est surjective : en effet, pour tout P\in\mathbb{R}\left[X\right], il suffit de choisir n\in\mathbb{N} de telle sorte que P\in\mathbb{R}_{n-1}\left[X\right] et d’invoquer la surjectivité de \Delta_{n}.

Deux matrices carrées semblables ont la même trace.

On va utiliser la propriété suivante (qui repose sur une simple interversion de sommes) :

    \[\fcolorbox{black}{myBlue}{$\forall\left(M,N\right)\in\mathcal{M}_{n}\left(\mathbb{K}\right)^{2},\:\text{tr }\left(MN\right)=\text{tr }\left(NM\right)$}\]

Soient A,B\in\mathcal{M}_{n}\left(\mathbb{K}\right) deux matrices semblables, ce qui signifie qu’il existe P\in GL_{n}\left(\mathbb{K}\right) vérifiant :

    \[A=PBP^{-1}\]

Alors :

    \begin{equation*}\begin{split}\text{tr }\left(A\right)&=\text{tr }\left(\left(PB\right)P^{-1}\right)\\&=\text{tr}\left(P^{-1}\left(PB\right)\right)\\&=\text{tr}\left(\left(P^{-1}P\right)B\right)\\&=\text{tr}\left(B\right)\end{split}\end{equation*}

Un exemple de fonction numérique définie sur un intervalle et ne possédant aucune primitive.

Considérons

    \[f:\left[-1,1\right]\rightarrow\mathbb{R},\thinspace x\mapsto\left\{ \begin{array}{cc}-1 & \text{si }-1\leqslant x<0\\\\1 & \text{si }0\leqslant x\leqslant1\end{array}\right.\]

et supposons l’existence de F:\left[-1,1\right]\rightarrow\mathbb{R} dérivable et telle que F'=f.Il existe alors des réels a,b tels que :

    \[\forall x\in\left[-1,0\right[,\thinspace F\left(x\right)=-x+a\]

et

    \[\forall x\in\left[0,1\right],\thinspace F\left(x\right)=x+b\]

Comme F est notamment continue en 0, alors :

    \[a=\lim_{x\rightarrow0^{-}}F\left(x\right)=\lim_{x\rightarrow0^{+}}F\left(x\right)=b\]

ce qui permet d’affirmer que :

    \[\forall x\in\left[-1,1\right],\thinspace F\left(x\right)=\left|x\right|+a\]

Mais on sait bien que la fonction valeur absolue n’est pas dérivable en 0, ce qui entraîne la même propriété pour F : contradiction !

Majoration de la dimension du noyau de la somme de deux endomorphismes.

Considérons la restriction \varphi de f au noyau de f+g :

    \[\varphi:\ker\left(f+g\right)\rightarrow E,\thinspace x\mapsto f\left(x\right)\]

D’après la remarque générale signalée au troisième point de la section 5 :

    \[\ker\left(\varphi\right)=\ker\left(f\right)\cap\ker\left(f+g\right)\]

On observe que si x\in\ker\left(f\right)\cap\ker\left(f+g\right), alors g\left(x\right)=\left(f+g\right)\left(x\right)-f\left(x\right)=0_{E} et donc x\in\ker\left(f\right)\cap\ker\left(g\right).

Réciproquement, si x\in\ker\left(f\right)\cap\ker\left(g\right) alors \left(f+g\right)\left(x\right)=f\left(x\right)+g\left(x\right)=0_{E} et donc x\in\ker\left(f\right)\cap\ker\left(f+g\right). Par conséquent :

    \[\boxed{\ker\left(\varphi\right)=\ker\left(f\right)\cap\ker\left(g\right)}\]

Par ailleurs, si y\in\text{Im}\left(\varphi\right), alors il existe x\in\ker\left(f+g\right) tel que y=f\left(x\right), mais alors :

    \[y=\left(f+g\right)\left(x\right)-g\left(x\right)=g\left(-x\right)\]

et donc y\in\text{Im}\left(f\right)\cap\text{Im}\left(g\right). Ainsi :

    \[\boxed{\text{Im}\left(\varphi\right)\subset\text{Im}\left(f\right)\cap\text{Im}\left(g\right)}\]

On applique maintenant la formule du rang, ce qui donne :

    \begin{equation*}\begin{split}\dim\left(\ker\left(f+g\right)\right) & = \dim\left(\ker\left(\varphi\right)\right)+\dim\left(\text{Im}\left(\varphi\right)\right)\\& =\dim\left(\ker\left(f\right)\cap\ker\left(g\right)\right)+\dim\left(\text{Im}\left(\varphi\right)\right)\\& \leqslant\dim\left(\ker\left(f\right)\cap\ker\left(g\right)\right)+\dim\left(\text{Im}\left(f\right)\cap\text{Im}\left(g\right)\right)\end{split}\end{equation*}

comme souhaité.


Vos questions ou remarques sont les bienvenues. Vous pouvez laisser un commentaire ci-dessous ou bien passer par le formulaire de contact.

Partager cet article

Cet article a 2 commentaires

  1. joseph cesana

    Bonjour,

    Pour l’endomorphisme \Delta défini par \Delta(P) = P(X+1) - P(X), on peut déterminer l’image en décomposant selon l’écriture générale des polynômes de \mathbb{R}[X] tq: a_0 + a_1\,X + a_2\,X^2+\cdots+ a_n\,X^n. En développant, on aboutit à la formule suivante:

        \[\Delta(P) = \sum_{k=0}^{n-1}\left(\sum_{\ell=k+1}^n\frac{\ell!}{k!(\ell-k)!}a_\ell\right)X^k\]

    auquel cas on voit que c’est l’ensemble des polynômes de degré inférieur ou égal à (n-1). Est-ce équivalent à la demonstration du cours ?

    1. René Adad

      Bonjour Joseph,

      On peut en effet exprimer comme vous le faites \Delta(P) dans la base canonique et constater que si P\in\mathbb{R}_n[X] avec n\geqslant1, alors \Delta(P)\in\mathbb{R}_{n-1}[X], mais cet argument doit être légèrement étoffé pour expliquer que l’on atteint bien tout l’espace \mathbb{R}_{n-1}[X], moyennant quoi on pourra conclure que \Delta induit une application linéaire surjective de \mathbb{R}_n[X] vers \mathbb{R}_{n-1}[X]. Et comme ceci vaut pour tout n\geqslant1, on peut alors conclure que \Delta est surjectif.

Laisser un commentaire