1001 façons de prouver qu’une famille de vecteurs est libre

article-prépa-scientifique

1 – Quelques rappels, vite fait

On va parler un peu d’algèbre linéaire, c’est à dire de cette partie des mathématiques qui traite, dans les grandes lignes, des espaces vectoriels et des applications linéaires.

Mise en garde : Cette section vise à rappeler quelques points fondamentaux concernant les espaces vectoriels. Elle ne saurait se substituer à un cours, car beaucoup de détails sont omis.

 

Etant donné un espace vectoriel E sur le corps \mathbb{K}, une famille \mathcal{V}=\left(v_{1},\cdots,v_{q}\right) de vecteurs de E est dite libre lorsque la seule façon d’obtenir le vecteur nul (noté 0_{E}) en combinant linéairement v_{1},\cdots,v_{q} consiste à choisir tous les coefficients nuls.

Autrement dit, \mathcal{V} est libre lorsque :

    \[ \boxed{\forall\left(\lambda_{1},\cdots,\lambda_{q}\right)\in\mathbb{K}^{q},\;\left[\sum_{i=1}^{q}\lambda_{i}v_{i}=0_{E}\Rightarrow\forall i\in\left\{ 1,\cdots,q\right\} ,\thinspace\lambda_{i}=0\right]} \]

On démontre aisément les propriétés suivantes :

  • toute famille réduite à un seul vecteur non nul est libre
  • toute famille comportant le vecteur nul est liée (c’est-à-dire : non libre)
  • toute sous-famille d’une famille libre est libre
  • une famille est libre si, et seulement si, aucun des vecteurs qui la composent n’est combinaison linéaire des autres

On dit aussi que des vecteurs formant une famille libre sont linéairement indépendants.

Cette notion et celle d’engendrement ne peuvent pas être dissociées l’une de l’autre :

Une famille \mathcal{V}=\left(v_{1},\cdots,v_{q}\right) de vecteurs de E est dite génératrice de E lorsque tout vecteur de E s’exprime comme combinaison linéaire des v_{i}, pour 1\leqslant i\leqslant q.
Si une telle famille existe, on dit que E est “ de dimension finie ”. On peut alors prouver l’existence de bases de E, c’est-à-dire des familles simultanément libres et génératrices de E. En outre, toutes les bases sont constituées d’un même nombre de vecteurs : ce “ cardinal ” commun à toutes les bases est appelé la dimension de E et noté \dim\left(E\right).

Le prototype d’espace vectoriel de dimension q est \mathbb{K}^{q}, c’est-à-dire l’espace des q-uplets de scalaires. Il est en effet évident qu’en posant :

    \[ e_{1}=\left(1,0,0,\cdots,0,0\right),\quad e_{2}=\left(0,1,0,\cdots,0,0\right),\cdots\text{ etc }\cdots,e_{q}=\left(0,0,0,\cdots,0,1\right) \]

la famille \left(e_{1},\cdots,e_{q}\right) est une base de \mathbb{K}^{q}. C’est la base canonique de \mathbb{K}^{q}, l’adjectif “ canonique ” signifiant ici “ standard ” ou “ naturelle ”.

On peut prouver que, dans un espace vectoriel de dimension q, toute famille libre est composée d’au plus q vecteurs. Il s’ensuit que si l’on peut exhiber des familles libres de cardinal arbitrairement grand, alors l’espace vectoriel ambiant n’est pas de dimension finie : on dit qu’il est de dimension infinie. Un exemple, parmi tant d’autres : l’espace \mathbb{K}^{\mathbb{N}} de toutes les suites à termes dans \mathbb{K}. Cet espace est de dimension infinie; car si l’on note \epsilon_{i} la suite dont tous les termes sont nuls, à l’exception du i-ème qui vaut 1, alors pour tout n\in\mathbb{N}, la famille \left(\epsilon_{i}\right)_{0\leqslant i\leqslant n} est libre.

Une question importante, dans divers contextes, consiste à reconnaître si une famille de vecteurs donnée est libre (ou non). Le but de cet article est de rassembler quelques unes des principales méthodes que l’on peut utiliser pour cela.

2 – Appliquer la définition !

Exemple 1

Commençons par quelque chose de très simple. Plaçons-nous dans le \mathbb{R}-espace vectoriel \mathbb{R}^{2} et considérons les vecteurs v_{1}=\left(1,3\right) et v_{2}=\left(2,-1\right).

Pour savoir si la famille \left(v_{1},v_{2}\right) est libre, donnons-nous deux réels \lambda_{1} et \lambda_{2} tels que \lambda_{1}v_{1}+\lambda_{2}v_{2} soit égal au vecteur nul de \mathbb{R}^{2}, à savoir le couple \left(0,0\right).

Cette condition équivaut au système :

    \[ \left\{ \begin{array}{ccc} \lambda_{1}+2\lambda_{2} & = & 0\\ 3\lambda_{1}-\lambda_{2} & = & 0 \end{array}\right. \]

qui conduit immédiatement à \lambda_{1}=\lambda_{2}=0. La famille \left(v_{1},v_{2}\right) est donc libre.

Ajoutons en remarque que cette famille est en fait une base de \mathbb{R}^{2}, ce qu’on peut vérifier d’au moins deux façons : soit en prouvant directement que c’est une famille libre (c’est fait) et génératrice de \mathbb{R}^{2} (exercice pour le lecteur 🙂 ), soit en constatant qu’elle est libre et de composée de 2 vecteurs (ce qui permet de conclure puisque \dim\left(\mathbb{R}^{2}\right)=2).

Exemple 2

Considérons un \mathbb{K}-espace vectoriel E et trois vecteurs u, v et w de E, linéairement indépendants.

La famille \mathcal{F}_{\lambda}=\left(u+\lambda v,v+\lambda w,w+\lambda u\right) est-elle libre pour tout scalaire \lambda ou bien est-ce que cela dépend de la valeur de ce paramètre ?

Pour le savoir, donnons-nous \alpha,\beta,\gamma\in\mathbb{K} tels que :

    \[ \alpha\left(u+\lambda v\right)+\beta\left(v+\lambda w\right)+\gamma\left(w+\lambda u\right)=0_{E} \]

En regroupant différemment les termes, cette condition prend la forme :

    \[ \left(\alpha+\gamma\lambda\right)u+\left(\beta+\alpha\lambda\right)v+\left(\gamma+\beta\lambda\right)w=0_{E} \]

La famille \left(u,v,w\right) étant libre, ceci impose :

    \[ \left\{ \begin{array}{ccccc} \alpha+\gamma\lambda & = & 0 & & \left(1\right)\\ \beta+\alpha\lambda & = & 0 & & \left(2\right)\\ \gamma+\beta\lambda & = & 0 & & \left(3\right) \end{array}\right. \]

D’après \left(3\right), on a \gamma=-\beta\lambda, d’où \alpha=\beta\lambda^{2} en reportant dans \left(1\right).

En injectant ces deux relations dans \left(2\right), il vient \left(\lambda^{3}+1\right)\beta=0. Par conséquent, deux cas se présentent…

  • Si \lambda^{3}+1\neq0, alors \beta=0. En reportant dans \left(3\right), on voit que \gamma=0. En reportant ensuite dans \left(1\right), on obtient \alpha=0. La famille \mathcal{F}_{\lambda} est donc libre.
  • Si \lambda^{3}+1=0, on constate que \mathcal{F}_{\lambda} est liée puisque :

        \[u+\lambda v-\lambda\left(v+\lambda w\right)+\lambda^{2}\left(w+\lambda u\right)=\left(1+\lambda^{3}\right)u=0\]

On peut donc conclure :

    \[ \boxed{\mathcal{F}_{\lambda}\text{ est libre}\Leftrightarrow\lambda^{3}+1\neq0} \]

Si \mathbb{K}=\mathbb{R}, cette dernière condition équivaut à \lambda\in\mathbb{R}-\left\{ -1\right\}.

Et si \mathbb{K}=\mathbb{C}, elle équivaut à \lambda\in\mathbb{C}-\left\{ -1,\thinspace e^{i\pi/3},\thinspace e^{-i\pi/3}\right\}.

3 – Raisonner par récurrence

Exemple 1

Pour tout n\in\mathbb{N}, notons e_{n} l’application de \mathbb{R} dans \mathbb{R} définie par :

    \[ \forall t\in\mathbb{R},\thinspace e_{n}\left(t\right)=t^{n} \]

et vérifions que la famille \left(e_{0},\cdots,e_{n}\right) est libre dans l’espace \mathbb{R}^{\mathbb{R}} de toutes les applications de \mathbb{R} dans lui-même.

Pour cela, raisonnons par récurrence. Il est clair que la famille réduite à e_{0} est libre (puisque e_{0} n’est pas l’application nulle).

Supposons (hypothèse de récurrence) que, pour un certain n\in\mathbb{N}, \left(e_{0},\cdots,e_{n}\right) est une famille libre et montrons alors qu’il en va de même pour \left(e_{0},\cdots,e_{n},e_{n+1}\right).

Pour cela, considérons des réels \lambda_{0},\cdots,\lambda_{n+1} tels que :

    \[ \sum_{k=0}^{n+1}\lambda_{k}e_{k}=0\qquad\left(\star\right) \]

(ce dernier symbole 0 désignant bien entendu le vecteur nul de \mathbb{R}^{\mathbb{R}}, c’est-à-dire l’application nulle de \mathbb{R} dans \mathbb{R}).

Autrement dit, supposons que :

    \[ \forall t\in\mathbb{R},\:\sum_{k=0}^{n+1}\lambda_{k}t^{k}=0 \]

En dérivant cette relation, il vient :

    \[ \forall t\in\mathbb{R},\:\sum_{k=1}^{n+1}k\lambda_{k}t^{k-1}=0 \]

c’est-à-dire :

    \[ \sum_{k=0}^{n}\left(k+1\right)\lambda_{k+1}e_{k}=0 \]

L’hypothèse de récurrence permet d’affirmer que \left(k+1\right)\lambda_{k+1}=0 pour tout k\in\left\{ 0,\cdots,n\right\}, ce qui revient à dire que \lambda_{k}=0 pour tout k\in\left\{ 1,\cdots,n+1\right\}.

En reportant ceci dans \left(\star\right), on voit aussitôt que \lambda_{0}=0. Finalement, les réels \lambda_{0},\cdots,\lambda_{n+1} sont tous nuls, comme souhaité.

Le résultat que nous venons d’établir est à la base de la célèbre “ méthode d’identification polynomiale ”. On pourra parcourir à ce sujet les deux articles (de niveau lycée) : Comment factoriser un polynôme et Deux théorèmes sur les polynômes

Exemple 2

Pour tout x\in\mathbb{R}, notons f_{x} l’application de \mathbb{R} dans lui-même définie par :

    \[ \forall t\in\mathbb{R},\thinspace f_{x}\left(t\right)=\left|t-x\right| \]

et montrons que si a_{1},\cdots,a_{n} sont des réels deux à deux distincts, alors la famille \left(f_{a_{k}}\right)_{1\leqslant k\leqslant n} est libre. Pour cela, procédons par récurrence (une autre preuve sera donnée à la section 4).

La propriété est évidente pour n=1. Supposons-la établie pour un certain rang n. Soient alors a_{1}<\cdots<a_{n+1} des réels distincts (on ne perd rien à les supposer rangés dans l’ordre croissant). Si \alpha_{1},\cdots,\alpha_{n+1}\in\mathbb{R} sont tels que :

    \[ \sum_{k=1}^{n+1}\,\alpha_{k}\,f_{a_{k}}=0 \]

alors, pour tout t\in\left]a_{n},a_{n+1}\right[ :

    \[ \left[\sum_{k=1}^{n}\,\alpha_{k}\,\left(t-a_{k}\right)\right]+\alpha_{n+1}\,\left(a_{n+1}-t\right)=0 \]

d’où, en particulier :

(1)   \[ -\alpha_{n+1}+\sum_{k=1}^{n}\,\alpha_{k}=0 \]

car si une fonction affine est nulle sur un intervalle non trivial, alors son coefficient directeur est nul !

De même, pour tout t\in\left]a_{n+1},+\infty\right[ :

    \[ \sum_{k=1}^{n+1}\,\alpha_{k}\,\left(t-a_{k}\right)=0 \]

d’où, en particulier :

(2)   \[ \sum_{k=1}^{n+1}\,\alpha_{k}=0 \]

D’après (1) et (2), on voit que \alpha_{n+1}=0. On invoque alors l’hypothèse de récurrence pour conclure que \alpha_{1}=\cdots=\alpha_{n}=0.

Exemple 3

E désigne à nouveau un \mathbb{K}-espace vectoriel.

Considérons un endomorphisme u de E, c’est-à-dire une application linéaire de E dans lui-même.

Rappelons qu’un scalaire \lambda est appelé une valeur propre de u s’il existe un vecteur x\in E-\left\{ 0_{E}\right\} tel que u\left(x\right)=\lambda x.

Un tel vecteur x est appelé un vecteur propre pour l’endomorphisme u.

Nous allons établir le résultat suivant :

Proposition 1 – si x_{1},\cdots,x_{q} sont des vecteurs propres pour un endomorphisme u, respectivement associés à des valeurs propres \lambda_{1},\cdots,\lambda_{q} deux à deux distinctes, alors la famille \left(x_{1},\cdots,x_{q}\right) est libre.

Raisonnons par récurrence sur le nombre q de vecteurs propres.

Pour q=1, c’est réglé puisqu’un vecteur propre étant non nul par définition, il constitue à lui seul une famille libre.

Supposons maintenant la propriété établie au rang q, pour un certain q\geqslant1, et considérons des vecteurs propres x_{1},\cdots,x_{q},x_{q+1} pour u, associés à des valeurs propres \lambda_{1},\cdots,\lambda_{q},\lambda_{q+1} deux à deux distinctes.

Soient \alpha_{1},\cdots,\alpha_{q},\alpha_{q+1} des scalaires tels que

    \[ \sum_{k=1}^{q+1}\alpha_{k}x_{k}=0_{E}\qquad\left(\clubsuit\right) \]

En appliquant u, il vient (par linéarité) :

    \[ \sum_{k=1}^{q+1}\alpha_{k}\thinspace u\left(x_{k}\right)=0_{E} \]

c’est-à-dire :

    \[ \sum_{k=1}^{q+1}\alpha_{k}\lambda_{k}x_{k}=0_{E}\qquad\left(\spadesuit\right) \]

En multipliant \left(\clubsuit\right) par \lambda_{q+1} puis en soustrayant l’égalité obtenue de \left(\spadesuit\right), on obtient :

    \[ \sum_{k=1}^{q}\alpha_{k}\left(\lambda_{k}-\lambda_{q+1}\right)x_{k}=0_{E} \]

La famille \left(x_{1},\cdots,x_{q}\right) étant libre (par hypothèse de récurrence), il vient :

    \[ \forall k\in\left\{ 1,\cdots,q\right\} ,\:\alpha_{k}\left(\lambda_{k}-\lambda_{q+1}\right)=0 \]

mais comme \lambda_{q+1}\neq\lambda_{k} pour tout k\in\left\{ 1,\cdots,q\right\}, on voit que :

    \[ \forall k\in\left\{ 1,\cdots,q\right\} ,\thinspace\alpha_{k}=0 \]

En ré-injectant ceci dans \left(\clubsuit\right), on voit aussitôt que \alpha_{q+1}x_{q+1}=0_{E} et donc \alpha_{q+1}=0.

Bref, on a montré que la famille \left(x_{1},\cdots,x_{q+1}\right) est libre, ce qui termine la preuve.

Nous utiliserons ce résultat à la section 6.

4 – Raisonner par l’absurde

Exemple 1

Visitons à nouveau l’exemple 2 de la section précédente. Soient f_{1},\cdots,f_{n} définies par :

    \[ f_{i}:\mathbb{R}\rightarrow\mathbb{R},\thinspace t\mapsto\left|t-a_{i}\right| \]

où a_{1},\cdots,a_{n} sont des réels deux à deux distincts.

Si la famille \left(f_{1},\cdots,f_{n}\right) était liée, il serait possible d’exprimer l’une des f_{i} comme combinaison linéaire des autres. Quitte à renuméroter, supposons qu’il s’agisse de f_{1}; autrement dit, qu’il existe des réels \lambda_{2},\cdots,\lambda_{n} tels que :

    \[ f_{1}=\sum_{i=2}^{n}\lambda_{i}f_{i} \]

Comme chacune des f_{i}, pour 2\leqslant i\leqslant n, est dérivable en a_{1}, il en va de même pour {\displaystyle \sum_{i=2}^{n}\lambda_{i}f_{i}}. Mais f_{1} n’est pas dérivable en a_{1} : contradiction !

On a prouvé, par l’absurde, que \left(f_{1},\cdots,f_{n}\right) est libre.

Exemple 2

Considérons à nouveau des réels a_{1},\cdots,a_{n} deux à deux distincts, ainsi que des applications \varphi_{1},\cdots,\varphi_{n} de \mathbb{R} dans \mathbb{R} telles que, pour chaque i\in\left\{ 1,\cdots,n\right\} , \varphi_{i} soit bornée au voisinage de tout point, mais non bornée au voisinage de a_{i}.

Alors la famille \left(\varphi_{1},\cdots,\varphi_{n}\right) est libre. En effet, dans le cas contraire, on aurait (quitte à renuméroter) égalité entre \varphi_{1} (qui est non bornée au voisinage de a_{1}) et une certaine combinaison linéaire de \varphi_{2},\cdots,\varphi_{n} (qui est bornée au voisinage de a_{1}, vu que \varphi_{2},\cdots,\varphi_{n} le sont toutes).

On peut généraliser …

Soient v_{1},\cdots,v_{q} des vecteurs d’un \mathbb{K}-espace vectoriel E. Supposons que l’on mette la main sur des propriétés \mathcal{P}_{1},\cdots,\mathcal{P}_{q} portant chacune sur les vecteurs de E et telles que :

  • Pour tout \left(i,j\right)\in\left\{ 1,\cdots,q\right\} ^{2}, v_{i} vérifie \mathcal{P}_{j} si, et seulement si, i\neq j
  • Pour tout i\in\left\{ 1,\cdots,q\right\}, si des vecteurs de E vérifient \mathcal{P}_{i} alors toute combinaison linéaire de ceux-ci vérifient aussi \mathcal{P}_{i}

On peut alors voir, en suivant le même schéma de preuve qu’aux deux exemples précédents, que \left(v_{1},\cdots,v_{q}\right) est libre.

Dans l’exemple 1, le propriété \mathcal{P}_{i} était “ être dérivable en a_{i} ” et dans l’exemple 2, il s’agissait de “ être bornée au voisinage de a_{i} ”.

5 – Evaluer en des points bien choisis

Cette section concerne exclusivement le cas d’une famille d’applications (sans quoi, on ne voit pas très bien ce que signifierait “ évaluer ”).

Exemple 1

Ce premier exemple est totalement anecdotique. Son seul intérêt est d’illustrer l’idée générale suivante :

On peut parfois montrer l’indépendance linéaire de n applications et partant d’une combinaison linéaire nulle de celles-ci et en l’évaluant en n points, ce qui conduit à un système linéaire et homogène de n équations en les n coefficients de la combinaison linéaire.

S’il est possible de choisir les points d’évaluation de telle sorte que le système obtenu soit de Cramer, alors les coefficients sont nécessairement tous nuls, ce qui prouve que la famille est libre.

Considérons les trois applications u,v,w définies sur \mathbb{R} par :

    \[ \forall x\in\mathbb{R},\:\left\{ \begin{array}{ccc} u\left(x\right) & = & x\thinspace e^{-x}\\ v\left(x\right) & = & \ln\left(x^{2}-2x+2\right)\\ w\left(x\right) & = & x+x^{3} \end{array}\right. \]

et vérifions que la famille \left(u,v,w\right) est libre.

Soient a,b,c\in\mathbb{R} tels que au+bv+cw=0, c’est-à-dire :

    \[ \boxed{\forall x\in\mathbb{R}},\thinspace ax\thinspace e^{-x}+b\ln\left(x^{2}-2x+2\right)+c\left(x+x^{3}\right)=0 \]

La présence du quantificateur universel nous autorise à choisir pour x une valeur à notre convenance…

En choisissant x=-1, puis x=0 et enfin x=1, on obtient le système :

    \[ \left\{ \begin{array}{ccc} -ae+b\ln\left(5\right) & = & 0\\ b\ln\left(2\right) & = & 0\\ a\thinspace e^{-1}+2c & = & 0 \end{array}\right. \]

qui donne aussitôt a=b=c=0.

Exemple 2

Etant donnés n réels a_{1},\cdots,a_{n} deux à deux distincts, les n polynômes L_{1},\cdots,L_{n} définis par :

    \[ \forall i\in\left\{ 1,\cdots,n\right\} ,\thinspace L_{i}=\prod_{{1\leqslant k\leqslant n\atop k\neq i}}\frac{X-a_{k}}{a_{i}-a_{k}} \]

forment une famille libre (et donc une base de \mathbb{R}_{n-1}\left[X\right], appelée “ base de Lagrange ” relative aux points d’interpolation a_{1},\cdots,a_{n}). En effet, si \lambda_{1},\cdots,\lambda_{n}\in\mathbb{R} vérifient :

    \[ \sum_{i=1}^{n}\lambda_{i}L_{i}=0 \]

alors, l’évaluation en a_{j} donne, pour tout j\in\left\{ 1,\cdots,n\right\} :

    \[ \sum_{i=1}^{n}\lambda_{i}L_{i}\left(a_{j}\right)=0 \]

or

    \[ L_{i}\left(a_{j}\right)=\left\{ \begin{array}{cc} 1 & \text{si }i=j\\ 0 & \text{sinon} \end{array}\right. \]

et donc :

    \[ \forall j\in\left\{ 1,\cdots,n\right\} ,\thinspace\lambda_{j}=0 \]

Exemple 3

L’exemple qui voici est étroitement relié au précédent. On se donne à nouveau n réels a_{1},\cdots,a_{n} tous distincts et l’on définit des formes linaires \psi_{1},\cdots,\psi_{n} sur l’espace \mathbb{R}_{n-1}\left[X\right]par :

    \[ \psi_{j}:\mathbb{R}_{n-1}\left[X\right]\rightarrow\mathbb{R},\thinspace P\mapsto P\left(a_{j}\right) \]

Autrement dit : \psi_{j} est la forme linéaire “ évaluation en a_{j} ”.

Montrons que la famille \left(\psi_{1},\cdots,\psi_{n}\right) est libre (et qu’il s’agit donc d’une base de l’espace \mathcal{L}\left(\mathbb{R}_{n-1}\left[X\right],\mathbb{R}\right) des formes linéaires sur \mathbb{R}_{n-1}\left[X\right], le fameux “ dual ” de \mathbb{R}_{n-1}\left[X\right]).

Soient donc \lambda_{1},\cdots,\lambda_{n} des réels tels que :

    \[ \sum_{j=1}^{n}\lambda_{j}\psi_{j}=0 \]

(ce dernier symbole 0 désignant bien entendu la forme linéaire nulle sur \mathbb{R}_{n-1}\left[X\right]).

En évaluant en L_{i}, on trouve :

    \[ \sum_{j=1}^{n}\lambda_{j}\psi_{j}\left(L_{i}\right)=0 \]

c’est-à-dire :

    \[ \sum_{j=1}^{n}\lambda_{j}L_{i}\left(a_{j}\right)=0 \]

et on termine comme à l’exemple 2.

6 – Penser à des vecteurs propres

D’après la proposition 1 établie à la section 3 (exemple 3), il suffit, pour établir que des vecteurs sont linéairement indépendants, de les reconnaître comme des vecteurs propres pour un certain endomorphisme, associés à des valeurs propres toutes distinctes. Donnons trois exemples…

Exemple 1

Etant donné n\geqslant2 et \omega=e^{2i\pi/n}, posons pour tout q\in\left\{ 0,\cdots,n-1\right\} :

    \[ u_{q}=\left(1,\omega^{q},\omega^{2q},\cdots,\omega^{\left(n-1\right)q}\right)\in\mathbb{C}^{n} \]

Le déterminant, relativement à la base canonique de \mathbb{C}^{n}, de la famille \mathcal{F}=\left(u_{0},u_{1},\cdots,u_{n-1}\right) est non nul; on reconnaît en effet le déterminant de Vandermonde

    \[ V=\left|\begin{array}{ccccc} 1 & 1 & 1 & \cdots & 1\\ 1 & \omega & \omega^{2} & \cdots & \omega^{n-1}\\ 1 & \omega^{2} & \omega^{4} & \cdots & \omega^{2n-2}\\ \vdots & \vdots & \vdots & & \vdots\\ 1 & \omega^{n-1} & \omega^{2n-2} & \cdots & \omega^{\left(n-1\right)^{2}} \end{array}\right|=\prod_{0\leqslant k<\ell\leqslant n-1}\left(\omega^{\ell}-\omega^{k}\right) \]

et donc V\neq0, ce qui prouve que \mathcal{F} est libre.

Mais on peut aussi considérer l’endomorphisme f de \mathbb{C}^{n} canoniquement associé à la matrice :

    \[ M=\left[\begin{array}{ccccc} 0 & 1 & 0 & \cdots & 0\\ \vdots & \ddots & \ddots & \ddots & \vdots\\ \vdots & & \ddots & \ddots & 0\\ 0 & \cdots & \cdots & 0 & 1\\ 1 & 0 & \cdots & \cdots & 0 \end{array}\right] \]

et constater que :

    \begin{eqnarray*}{ f\left(u_{0}\right) & = & u_{0}\\ f\left(u_{1}\right) & = & \omega\thinspace u_{1}\\ \vdots & & \vdots\\ f\left(u_{n-1}\right) & = & \omega^{n-1}\thinspace u_{n-1} \end{eqnarray*}

ce qui prouve que \mathcal{F} est une famille de vecteurs propres pour f, associés à des valeurs propres toutes distinctes (à savoir : les racines n-èmes de l’unité), d’où le résultat.

Exemple 2

Notons \mathcal{C}^{\infty}\left(\mathbb{R}\right) l’espace des applications indéfiniment dérivables de \mathbb{R} dans lui-même.

Si \omega_{1},\cdots,\omega_{n}\in\mathbb{R} sont deux à deux distincts, alors les applications t\mapsto e^{\omega_{i}t} sont linéairement indépendantes, car ce sont des vecteurs propres pour l’endomorphisme de dérivation, associés à des valeurs propres toutes distinctes.

Exemple 3

Dans le même style, si \omega_{1},\cdots,\omega_{n}>0 sont deux à deux distincts, alors les applications t\mapsto\cos\left(\omega_{i}t\right) sont linéairement indépendantes, puisqu’il s’agit cette fois de vecteurs propres pour l’endomorphisme de double-dérivation, associés là encore à des valeurs propres toutes distinctes (les nombres -\omega_{i}^{2}, pour 1\leqslant i\leqslant n).

7 – Reconnaître des vecteurs orthogonaux

Proposition 2 – Dans un espace vectoriel réel E muni d’un produit scalaire, toute famille de vecteurs non nuls et deux à deux orthogonaux est libre.

Cette propriété se démontre aisément :

Soient v_{1},\cdots,v_{q}\in E-\left\{ 0_{E}\right\} tels que :

    \[ \forall\left(i,j\right)\in\left\{ 1,\cdots,q\right\} ^{2},\thinspace i\neq j\Rightarrow\left(v_{i}\mid v_{j}\right)=0 \]

Etant donnés \lambda_{1},\cdots,\lambda_{q}\in\mathbb{R} tels que :

    \[ \sum_{i=1}^{q}\lambda_{i}v_{i}=0_{E} \]

il suffit d’effectuer le produit scalaire de chaque membre par v_{j} pour obtenir :

    \[ \forall j\in\left\{ 1,\cdots,q\right\} ,\:\sum_{i=1}^{q}\lambda_{i}\left(v_{i}\mid v_{j}\right)=0 \]

c’est-à-dire :

    \[ \forall j\in\left\{ 1,\cdots,q\right\} ,\thinspace\lambda_{j}\left\Vert v_{j}\right\Vert ^{2}=0 \]

Un vecteur non nul étant de norme non nulle, il reste que :

    \[ \forall j\in\left\{ 1,\cdots,q\right\} ,\thinspace\lambda_{j}=0 \]

ce qui établit le résultat annoncé.

Exemple 1

Posons, pour tout k\in\mathbb{N} :

    \[ f_{k}:\left[0,2\pi\right]\rightarrow\mathbb{R},\thinspace t\mapsto\cos\left(kt\right) \]

et montrons que, pour tout n\in\mathbb{N}, la famille \left(f_{k}\right)_{0\leqslant k\leqslant n} est libre. On peut considérer les f_{k} comme vecteurs de l’espace E=\mathcal{C}\left(\left[0,2\pi\right],\mathbb{R}\right) de toutes les applications continues de \left[0,2\pi\right] dans \mathbb{R}.

Cet espace est classiquement muni d’un produit scalaire, défini par :

    \[ \forall\left(f,g\right)\in E^{2},\thinspace\left(f\mid g\right)=\int_{0}^{2\pi}f\left(t\right)g\left(t\right)\thinspace dt \]

De toute évidence, les f_{k} sont non nulles. Si l’on montre qu’elles sont deux à deux orthogonales (au sens du produit scalaire ci-dessus), il suffira pour conclure d’appliquer la proposition 2.

Soient donc k,\ell deux entiers naturels distincts. On calcule :

    \[ \left(f_{k}\mid f_{\ell}\right)=\int_{0}^{2\pi}\,\cos\left(kt\right)\cos\left(\ell t\right)\,dt=\frac{1}{2}\int_{0}^{2\pi}\left(\cos\left(\left(k+\ell\right)t\right)+\cos\left(\left(k-\ell\right)t\right)\right)\,dt \]

Comme k\neq\ell, alors k+\ell\neq0 et k-\ell\neq0 donc :

    \[ \left(f_{k}\mid f_{\ell}\right)=\frac{1}{2}\left[\frac{\sin\left(\left(k+\ell\right)t\right)}{k+\ell}+\frac{\sin\left(\left(k-\ell\right)t\right)}{k-\ell}\right]_{t=0}^{2\pi}=0 \]

Exemple 2

On reprend ici les notations des exemples 2 et 3 de la section 5. Munissons \mathbb{R}_{n-1}\left[X\right] du produit scalaire défini par :

    \[ \forall\left(P,Q\right)\in\mathbb{R}_{n-1}\left[X\right]^{2},\:\left(P\mid Q\right)=\sum_{k=1}^{n}P\left(a_{k}\right)Q\left(a_{k}\right) \]

L’application \mathbb{R}_{n-1}\left[X\right]^{2}\rightarrow\mathbb{R},\thinspace\left(P,Q\right)\mapsto\left(P\mid Q\right) est clairement bilinéaire et symétrique. De plus, pour tout P\in\mathbb{R}_{n-1}\left[X\right] :

    \[ \left(P\mid P\right)=\sum_{k=1}^{n}P\left(a_{k}\right)^{2}\geqslant0 \]

avec égalité si, et seulement si, P\left(a_{k}\right)=0 pour tout k\in\left\{ 1,\cdots,n\right\}. Mais alors P possède au moins n racines, ce qui impose P=0. On a donc bien affaire à un produit scalaire. En outre, pour tout \left(i,j\right)\in\left\{ 1,\cdots,n\right\} ^{2} :

    \[ \left(L_{i}\mid L_{j}\right)=\sum_{k=1}^{n}L_{i}\left(a_{k}\right)L_{j}\left(a_{k}\right)=\sum_{k=1}^{n}\delta_{i,k}\delta_{j,k}=\delta_{i,j} \]

Ceci montre que la famille \left(L_{1},\cdots,L_{n}\right) est orthonormale, donc libre.

8 – Utiliser des propriétés locales

Lorsqu’il s’agit de prouver l’indépendance linéaire d’une famille de fonctions numériques, il est parfois judicieux de faire intervenir leur comportement asymptotique au voisinage de tel ou tel point. Pour terminer cet article, illustrons cette idée par deux exemples.

Exemple 1

Considérons les applications f,g,h,k définies sur \mathbb{R} par :

    \[ \forall x\in\mathbb{R},\thinspace\left\{ \begin{array}{ccc} f\left(x\right) & = & \sin\left(x\right)+\cos\left(\frac{x}{2}\right)\\ g\left(x\right) & = & \sin\left(2x\right)-\sin\left(x\right)\\ h\left(x\right) & = & \sin\left(x\right)+\cos\left(x\right)\\ k\left(x\right) & = & \cos\left(x\right)-\sin\left(2x\right) \end{array}\right. \]

et soient a,b,c,d\in\mathbb{R} tels que af+bg+ch+dk=0. Utilisons les développements limités de f,g,h et k au voisinage de 0 et à l’ordre 3 :

    \[ f\left(x\right)\underset{{\scriptstyle 0}}{=}1+x-\frac{x^{2}}{8}-\frac{x^{3}}{6}+o\left(x^{3}\right) \]

    \[ g\left(x\right)\underset{{\scriptstyle 0}}{=x-\frac{7x^{3}}{6}+o\left(x^{3}\right)} \]

    \[ h\left(x\right)\underset{{\scriptstyle 0}}{=}1+x-\frac{x^{2}}{2}-\frac{x^{3}}{6}+o\left(x^{3}\right) \]

    \[ k\left(x\right)\underset{{\scriptstyle 0}}{=}1-2x-\frac{x^{2}}{2}+\frac{4x^{3}}{6}+o\left(x^{3}\right) \]

Par unicité du développement limité en un point, on obtient le système :

    \[ \left\{ \begin{array}{ccc} a+c+d & = & 0\\ a+b+c-2d & = & 0\\ -\frac{a}{8}-\frac{c}{2}-\frac{d}{2} & = & 0\\ -\frac{a}{6}-\frac{7b}{6}-\frac{c}{6}+\frac{4d}{3} & = & 0 \end{array}\right. \]

qui se résout facilement et donne a=b=c=d=0. La famille \left(f,g,h,k\right) est donc libre.

Attention ! Si cette méthode conduit, sur un exemple similaire, à un système qui n’est pas de Cramer, cela ne signifie pas pour autant que la famille étudiée est liée (mais seulement que les polynômes correspondant aux parties régulières des développements sont linéairement dépendants).

Exemple 2

Une autre idée consiste à classer (si possible) les fonctions de la famille considérée par ordre de prépondérance croissante (ou décroissante) au voisinage d’un point. Considérons des fonctions f_{i}:\left[a,+\infty\right[\rightarrow\mathbb{R} tels que :

    \[ f_{1}\underset{{\scriptstyle +\infty}}{=}o\left(f_{2}\right),\quad f_{2}\underset{{\scriptstyle +\infty}}{=}o\left(f_{3}\right),\quad\cdots\quad f_{n-1}\underset{{\scriptstyle +\infty}}{=}o\left(f_{n}\right) \]

Il est alors facile de prouver que la famille \left(f_{1},\cdots,f_{n}\right) est libre.

En effet, si \lambda_{1},\cdots,\lambda_{n}\in\mathbb{R} sont tels que :

    \[ \forall t\in\left[a,+\infty\right[,\:\sum_{i=1}^{n}\lambda_{i}f_{i}\left(t\right)=0 \]

alors, en divisant chaque membre par f_{n}\left(t\right) (on supposera pour simplifier que les f_{i} ne s’annulent pas) puis en faisant tendre t vers +\infty, on obtient \lambda_{n}=0. Ceci permet, en raisonnant par récurrence, de prouver en cascade la nullité de chacun des \lambda_{i}.

Cette procédure convient par exemple si \left(a_{1},b_{1}\right),\cdots,\left(a_{n},b_{n}\right) sont des couples deux à deux distincts de réels et, pour tout i\in\left\{ 1,\cdots,n\right\} :

    \[ f_{i}:\left]0,+\infty\right[\rightarrow\mathbb{R},\thinspace t\mapsto t^{a_{i}}e^{b_{i}t} \]

En classant les couples \left(a_{i},b_{i}\right) selon l’ordre lexicographique, on classe les fonctions f_{i} selon leur prépondérance relative au voisinage de +\infty, ce qui permet de conclure que \left(f_{1},\cdots,f_{n}\right) est libre.


Je vous remercie de m’avoir lu et j’espère que cet article vous sera utile 🙂

Partager cet article
  •  
  •  
  •  
  •  
  •  

Laisser un commentaire

Fermer le menu