1001 façons de prouver qu’une famille de vecteurs est libre

warning-math-os
Si vous souhaitez vous entraîner en cherchant des exercices sur l’indépendance linéaire, sachez qu’une fiche consacrée à ce thème est disponible ici.
Je vous signale aussi cet article, consacré au calcul de la dimension d’un espace vectoriel, ainsi que trois vidéos qui portent sur ce thème :
Un fiche d’exercice cible également ces questions de dimension.

1 – Quelques rappels, vite fait

On va parler un peu d’algèbre linéaire, c’est-à-dire de cette partie des mathématiques qui traite, dans les grandes lignes, des espaces vectoriels et des applications linéaires.
Mise en garde : Cette section vise à rappeler quelques points fondamentaux concernant les espaces vectoriels. Elle ne saurait se substituer à un cours, car beaucoup de détails sont omis.
Etant donné un espace vectoriel E sur le corps \mathbb{K}, une famille \mathcal{V}=\left(v_{1},\cdots,v_{q}\right) de vecteurs de E est dite libre lorsque la seule façon d’obtenir le vecteur nul (noté 0_{E}) en combinant linéairement les v_i consiste à choisir tous les coefficients nuls. Autrement dit, \mathcal{V} est libre lorsque :

    \[ \forall\left(\lambda_{1},\cdots,\lambda_{q}\right)\in\mathbb{K}^{q},\;\left[\sum_{i=1}^{q}\lambda_{i}v_{i}=0_{E}\Rightarrow\forall i\in\llbracket1,q\rrbracket,\thinspace\lambda_{i}=0\right] \]

On démontre aisément les propriétés suivantes :
  • toute famille réduite à un seul vecteur non nul est libre
  • toute famille comportant le vecteur nul est liée (c’est-à-dire : non libre)
  • toute sous-famille d’une famille libre est libre
  • une famille est libre si, et seulement si, aucun des vecteurs qui la composent n’est combinaison linéaire des autres
On dit aussi que des vecteurs formant une famille libre sont linéairement indépendants. Cette notion et celle d’engendrement ne peuvent pas être dissociées l’une de l’autre : Une famille \mathcal{V}=\left(v_{1},\cdots,v_{q}\right) de vecteurs de E est dite génératrice de E lorsque tout vecteur de E s’exprime comme combinaison linéaire des v_{i}, pour 1\leqslant i\leqslant q. Si une telle famille existe, on dit que E est “ de dimension finie ”. On peut alors prouver l’existence de bases de E, c’est-à-dire des familles simultanément libres et génératrices de E. En outre, toutes les bases sont constituées d’un même nombre de vecteurs : ce “ cardinal ” commun à toutes les bases est appelé la dimension de E et noté \dim\left(E\right). Le prototype d’espace vectoriel de dimension q est \mathbb{K}^{q}, c’est-à-dire l’espace des q-uplets de scalaires. En effet, il est évident qu’en posant :

    \[ e_{1}=\left(1,0,0,\cdots,0,0\right),\quad e_{2}=\left(0,1,0,\cdots,0,0\right),\cdots\text{ etc }\cdots,e_{q}=\left(0,0,0,\cdots,0,1\right) \]

la famille \left(e_{1},\cdots,e_{q}\right) est une base de \mathbb{K}^{q}. C’est la base canonique de \mathbb{K}^{q}, l’adjectif “ canonique ” signifiant ici “ standard ” ou “ naturelle ”. On peut prouver que, dans un espace vectoriel de dimension q, toute famille libre est composée d’au plus q vecteurs. Il s’ensuit que si l’on peut exhiber des familles libres de cardinal arbitrairement grand, alors l’espace vectoriel ambiant n’est pas de dimension finie : on dit qu’il est de dimension infinie. Un exemple, parmi tant d’autres : l’espace \mathbb{K}^{\mathbb{N}} de toutes les suites à termes dans \mathbb{K}. Cet espace est de dimension infinie; car si l’on note \epsilon_{i} la suite dont tous les termes sont nuls, à l’exception du i-ème qui vaut 1, alors pour tout n\in\mathbb{N}, la famille \left(\epsilon_{i}\right)_{0\leqslant i\leqslant n} est libre.
Une question importante, dans divers contextes, consiste à reconnaître si une famille de vecteurs donnée est libre (ou non). Le but de cet article est de rassembler quelques unes des principales méthodes que l’on peut utiliser pour cela.

2 – Appliquer la définition !

Exemple 1

Commençons par quelque chose de très simple. Plaçons-nous dans le \mathbb{R}-espace vectoriel \mathbb{R}^{2} et considérons les vecteurs v_{1}=\left(1,3\right) et v_{2}=\left(2,-1\right). Pour savoir si la famille \left(v_{1},v_{2}\right) est libre, donnons-nous deux réels \lambda_{1} et \lambda_{2} tels que \lambda_{1}v_{1}+\lambda_{2}v_{2} soit égal au vecteur nul de \mathbb{R}^{2}, à savoir le couple \left(0,0\right). Cette condition équivaut au système :

    \[ \left\{ \begin{array}{ccc} \lambda_{1}+2\lambda_{2} & = & 0\\ 3\lambda_{1}-\lambda_{2} & = & 0 \end{array}\right. \]

qui conduit immédiatement à \lambda_{1}=\lambda_{2}=0. La famille \left(v_{1},v_{2}\right) est donc libre. Ajoutons que cette famille est en fait une base de \mathbb{R}^{2}, ce qu’on peut vérifier d’au moins deux façons :
  • soit en prouvant directement que c’est une famille libre (c’est fait) et génératrice de \mathbb{R}^{2} (exercice pour le lecteur 🙂 ),
  • soit en constatant qu’elle est libre et composée de 2 vecteurs, ce qui permet de conclure puisque \dim\left(\mathbb{R}^{2}\right)=2.

Exemple 2

Considérons un \mathbb{K}-espace vectoriel E et trois vecteurs u, v et w de E, linéairement indépendants. La famille \mathcal{F}_{\lambda}=\left(u+\lambda v,v+\lambda w,w+\lambda u\right) est-elle libre pour tout scalaire \lambda ou bien cela dépend-il de la valeur de ce paramètre ? Pour le savoir, donnons-nous \alpha,\beta,\gamma\in\mathbb{K} tels que :

    \[ \alpha\left(u+\lambda v\right)+\beta\left(v+\lambda w\right)+\gamma\left(w+\lambda u\right)=0_{E} \]

En regroupant différemment les termes, cette condition prend la forme :

    \[ \left(\alpha+\gamma\lambda\right)u+\left(\beta+\alpha\lambda\right)v+\left(\gamma+\beta\lambda\right)w=0_{E} \]

La famille \left(u,v,w\right) étant libre, ceci impose :

    \[ \left\{ \begin{array}{ccccc} \alpha+\gamma\lambda & = & 0 & & \left(1\right)\\ \beta+\alpha\lambda & = & 0 & & \left(2\right)\\ \gamma+\beta\lambda & = & 0 & & \left(3\right) \end{array}\right. \]

D’après \left(3\right), on a \gamma=-\beta\lambda, d’où \alpha=\beta\lambda^{2} en reportant dans \left(1\right). En injectant ces deux relations dans \left(2\right), il vient \left(\lambda^{3}+1\right)\beta=0. Par conséquent, deux cas se présentent…
  • Si \lambda^{3}+1\neq0, alors \beta=0. En reportant dans \left(3\right), on voit que \gamma=0. En reportant ensuite dans \left(1\right), on obtient \alpha=0. La famille \mathcal{F}_{\lambda} est donc libre.
  • Si \lambda^{3}+1=0, on constate que \mathcal{F}_{\lambda} est liée puisque :

        \[u+\lambda v-\lambda\left(v+\lambda w\right)+\lambda^{2}\left(w+\lambda u\right)=\left(1+\lambda^{3}\right)u=0\]

On peut donc conclure :

    \[ \boxed{\mathcal{F}_{\lambda}\text{ est libre}\Leftrightarrow\lambda^{3}+1\neq0} \]

Si \mathbb{K}=\mathbb{R}, cette dernière condition équivaut à \lambda\in\mathbb{R}-\left\{ -1\right\}. Et si \mathbb{K}=\mathbb{C}, elle équivaut à \lambda\in\mathbb{C}-\left\{ -1,\thinspace e^{i\pi/3},\thinspace e^{-i\pi/3}\right\}.

3 – Raisonner par récurrence

Exemple 1

Pour tout n\in\mathbb{N}, notons e_{n} l’application de \mathbb{R} dans \mathbb{R} définie par :

    \[ \forall t\in\mathbb{R},\thinspace e_{n}\left(t\right)=t^{n} \]

et vérifions que la famille \left(e_{0},\cdots,e_{n}\right) est libre dans l’espace \mathbb{R}^{\mathbb{R}} de toutes les applications de \mathbb{R} dans lui-même. Pour cela, raisonnons par récurrence. Il est clair que la famille réduite à e_{0} est libre (puisque e_{0} n’est pas l’application nulle). Supposons (hypothèse de récurrence) que \left(e_{0},\cdots,e_{n}\right) est une famille libre pour un certain n\in\mathbb{N}, et montrons alors qu’il en va de même pour \left(e_{0},\cdots,e_{n},e_{n+1}\right). Pour cela, considérons des réels \lambda_{0},\cdots,\lambda_{n+1} tels que :

    \[ \sum_{k=0}^{n+1}\lambda_{k}e_{k}=0\qquad\left(\star\right) \]

(ce dernier symbole 0 désignant bien entendu le vecteur nul de \mathbb{R}^{\mathbb{R}}, c’est-à-dire l’application nulle de \mathbb{R} dans \mathbb{R}). Autrement dit, supposons que :

    \[ \forall t\in\mathbb{R},\:\sum_{k=0}^{n+1}\lambda_{k}t^{k}=0 \]

En dérivant cette relation, il vient :

    \[ \forall t\in\mathbb{R},\:\sum_{k=1}^{n+1}k\lambda_{k}t^{k-1}=0 \]

c’est-à-dire :

    \[ \sum_{k=0}^{n}\left(k+1\right)\lambda_{k+1}e_{k}=0 \]

L’hypothèse de récurrence permet d’affirmer que \left(k+1\right)\lambda_{k+1}=0 pour tout k\in\llbracket0,n\rrbracket, ce qui revient à dire que \lambda_{k}=0 pour tout k\in\llbracket1,n+1\rrbracket. En reportant ceci dans \left(\star\right), on voit aussitôt que \lambda_{0}=0. Finalement, les réels \lambda_{0},\cdots,\lambda_{n+1} sont tous nuls, comme souhaité. Le résultat que nous venons d’établir est à la base de la célèbre méthode d’identification polynomiale. Voir à ce sujet les deux articles (de niveau lycée) : Comment factoriser un polynôme et Deux théorèmes sur les polynômes

Exemple 2

Pour tout x\in\mathbb{R}, notons f_{x} l’application de \mathbb{R} dans lui-même définie par :

    \[ \forall t\in\mathbb{R},\thinspace f_{x}\left(t\right)=\left|t-x\right| \]

et montrons que si a_{1},\cdots,a_{n} sont des réels deux à deux distincts, alors la famille \left(f_{a_{k}}\right)_{1\leqslant k\leqslant n} est libre. Pour cela, procédons par récurrence (une autre preuve est donnée à la section 4). La propriété est évidente pour n=1. Supposons-la établie pour un certain rang n. Soient alors a_{1}<\cdots<a_{n+1} des réels distincts (on ne perd rien à les supposer rangés dans l’ordre croissant). Si \alpha_{1},\cdots,\alpha_{n+1}\in\mathbb{R} sont tels que :

    \[ \sum_{k=1}^{n+1}\,\alpha_{k}\,f_{a_{k}}=0 \]

alors, pour tout t\in\left]a_{n},a_{n+1}\right[ :

    \[ \left[\sum_{k=1}^{n}\,\alpha_{k}\,\left(t-a_{k}\right)\right]+\alpha_{n+1}\,\left(a_{n+1}-t\right)=0 \]

d’où, en particulier :

(1)   \[ -\alpha_{n+1}+\sum_{k=1}^{n}\,\alpha_{k}=0 \]

car si une fonction affine est nulle sur un intervalle non trivial, alors son coefficient directeur est nul ! De même, pour tout t\in\left]a_{n+1},+\infty\right[ :

    \[ \sum_{k=1}^{n+1}\,\alpha_{k}\,\left(t-a_{k}\right)=0 \]

d’où, en particulier :

(2)   \[ \sum_{k=1}^{n+1}\,\alpha_{k}=0 \]

D’après (1) et (2), on voit que \alpha_{n+1}=0. On invoque alors l’hypothèse de récurrence pour conclure que \alpha_{1}=\cdots=\alpha_{n}=0.

Exemple 3

E désigne à nouveau un \mathbb{K}-espace vectoriel. Considérons un endomorphisme u de E, c’est-à-dire une application linéaire de E dans lui-même. Rappelons qu’un scalaire \lambda est appelé une valeur propre de u s’il existe un vecteur x\in E-\left\{ 0_{E}\right\} tel que u\left(x\right)=\lambda x. Un tel vecteur x est appelé un vecteur propre pour l’endomorphisme u. Nous allons établir le résultat suivant :

Proposition 1

Si x_{1},\cdots,x_{q} sont des vecteurs propres pour un endomorphisme u, respectivement associés à des valeurs propres \lambda_{1},\cdots,\lambda_{q} deux à deux distinctes, alors la famille \left(x_{1},\cdots,x_{q}\right) est libre.
Raisonnons par récurrence sur le nombre q de vecteurs propres. Pour q=1, c’est réglé puisqu’un vecteur propre étant non nul par définition, il constitue à lui seul une famille libre. Supposons maintenant la propriété établie au rang q, pour un certain q\geqslant1, et considérons des vecteurs propres x_{1},\cdots,x_{q},x_{q+1} pour u, associés à des valeurs propres \lambda_{1},\cdots,\lambda_{q},\lambda_{q+1} deux à deux distinctes. Soient \alpha_{1},\cdots,\alpha_{q},\alpha_{q+1} des scalaires tels que

    \[ \sum_{k=1}^{q+1}\alpha_{k}x_{k}=0_{E}\qquad\left(\clubsuit\right) \]

En appliquant u, il vient (par linéarité) :

    \[ \sum_{k=1}^{q+1}\alpha_{k}\thinspace u\left(x_{k}\right)=0_{E} \]

c’est-à-dire :

    \[ \sum_{k=1}^{q+1}\alpha_{k}\lambda_{k}x_{k}=0_{E}\qquad\left(\spadesuit\right) \]

En multipliant \left(\clubsuit\right) par \lambda_{q+1} puis en soustrayant l’égalité obtenue de \left(\spadesuit\right), on obtient :

    \[ \sum_{k=1}^{q}\alpha_{k}\left(\lambda_{k}-\lambda_{q+1}\right)x_{k}=0_{E} \]

La famille \left(x_{1},\cdots,x_{q}\right) étant libre (par hypothèse de récurrence), il vient :

    \[ \forall k\in\llbracket1,q\rrbracket,\:\alpha_{k}\left(\lambda_{k}-\lambda_{q+1}\right)=0 \]

mais comme \lambda_{q+1}\neq\lambda_{k} pour tout k\in\llbracket1,q\rrbracket, on voit que :

    \[ \forall k\in\left\{ 1,\cdots,q\right\} ,\thinspace\alpha_{k}=0 \]

En ré-injectant ceci dans \left(\clubsuit\right), on voit aussitôt que \alpha_{q+1}x_{q+1}=0_{E} et donc \alpha_{q+1}=0. Bref, on a montré que la famille \left(x_{1},\cdots,x_{q+1}\right) est libre, ce qui termine la preuve. Nous utiliserons ce résultat à la section 6.

4 – Raisonner par l’absurde

Exemple 1

Visitons à nouveau l’exemple 2 de la section précédente. Soient f_{1},\cdots,f_{n} définies par :

    \[ f_{i}:\mathbb{R}\rightarrow\mathbb{R},\thinspace t\mapsto\left|t-a_{i}\right| \]

a_{1},\cdots,a_{n} sont des réels deux à deux distincts. Si la famille \left(f_{1},\cdots,f_{n}\right) était liée, il serait possible d’exprimer l’une des f_{i} (disons f_1, quitte à renuméroter) comme combinaison linéaire des autres. Il existerait donc des réels \lambda_{2},\cdots,\lambda_{n} tels que :

    \[ f_{1}=\sum_{i=2}^{n}\lambda_{i}f_{i} \]

Comme chacune des f_{i}, pour 2\leqslant i\leqslant n, est dérivable en a_{1}, il en va de même pour {\displaystyle \sum_{i=2}^{n}\lambda_{i}f_{i}}. Mais f_{1} n’est pas dérivable en a_{1} : contradiction ! On a prouvé, par l’absurde, que la famille \left(f_{1},\cdots,f_{n}\right) est libre.

Exemple 2

Soient a_{1},\cdots,a_{n}\in\mathbb{R} deux à deux distincts et des applications \varphi_{1},\cdots,\varphi_{n} de \mathbb{R} dans \mathbb{R}. On suppose que, pour chaque i\in\llbracket1,n\rrbracket, \varphi_{i} est bornée au voisinage de tout point, mais non bornée au voisinage de a_{i}. Dans ces conditions, la famille \left(\varphi_{1},\cdots,\varphi_{n}\right) est libre. En effet, dans le cas contraire, on aurait (quitte à renuméroter) égalité entre \varphi_{1} (qui est non bornée au voisinage de a_{1}) et une certaine combinaison linéaire de \varphi_{2},\cdots,\varphi_{n} (qui est bornée au voisinage de a_{1}, vu que \varphi_{2},\cdots,\varphi_{n} le sont toutes).
On peut généraliser … Soient v_{1},\cdots,v_{q} des vecteurs d’un \mathbb{K}-espace vectoriel E. Supposons que l’on mette la main sur des propriétés \mathcal{P}_{1},\cdots,\mathcal{P}_{q} portant chacune sur les vecteurs de E et telles que :
  • Pour tout \left(i,j\right)\in\llbracket1,q\rrbracket^{2}, v_{i} vérifie \mathcal{P}_{j} si, et seulement si, i\neq j
  • Pour tout i\in\llbracket1,q\rrbracket, si des vecteurs de E vérifient \mathcal{P}_{i} alors toute combinaison linéaire de ceux-ci vérifient aussi \mathcal{P}_{i}
En suivant le même schéma de preuve qu’aux deux exemples précédents, on voit que \left(v_{1},\cdots,v_{q}\right) est libre.
Dans l’exemple 1, le propriété \mathcal{P}_{i} était [ être dérivable en a_{i} ] et dans l’exemple 2, il s’agissait de [ être bornée au voisinage de a_{i} ].

5 – Evaluer en des points bien choisis

Cette section concerne exclusivement le cas d’une famille d’applications (sans quoi, on ne voit pas très bien ce que signifierait “ évaluer ”).

Exemple 1

Ce premier exemple est totalement anecdotique. Son seul intérêt est d’illustrer l’idée générale suivante :
On peut parfois montrer l’indépendance linéaire de n applications et partant d’une combinaison linéaire nulle de celles-ci et en l’évaluant en n points, ce qui conduit à un système linéaire et homogène de n équations à n inconnues (les coefficients de la combinaison linéaire) S’il est possible de choisir les points d’évaluation de telle sorte que le système obtenu soit de Cramer, alors les coefficients sont nécessairement tous nuls, ce qui prouve que la famille est libre.
Considérons les trois applications u,v,w définies sur \mathbb{R} par :

    \[ \forall x\in\mathbb{R},\:\left\{ \begin{array}{ccc} u\left(x\right) & = & x\thinspace e^{-x}\\ \\ v\left(x\right) & = & \ln\left(x^{2}-2x+2\right)\\ \\ w\left(x\right) & = & x+x^{3} \end{array}\right. \]

et vérifions que la famille \left(u,v,w\right) est libre. Soient a,b,c\in\mathbb{R} tels que au+bv+cw=0, c’est-à-dire :

    \[ \boxed{\forall x\in\mathbb{R}},\thinspace ax\thinspace e^{-x}+b\ln\left(x^{2}-2x+2\right)+c\left(x+x^{3}\right)=0 \]

La présence du quantificateur universel nous autorise à choisir librement la valeur de x. En choisissant x=-1, puis x=0 et enfin x=1, on obtient le système :

    \[ \left\{ \begin{array}{ccc} -ae+b\ln\left(5\right) & = & 0\\ \\ b\ln\left(2\right) & = & 0\\ \\ a\thinspace e^{-1}+2c & = & 0 \end{array}\right. \]

qui donne aussitôt a=b=c=0.

Exemple 2

Cet exemple et le suivant sont nettement moins anecdotiques… Etant donnés a_{1},\cdots,a_{n}\in\mathbb{R} deux à deux distincts, les n polynômes L_{1},\cdots,L_{n} définis par :

    \[ \forall i\in\llbracket1,n\rrbracket,\thinspace L_{i}=\prod_{{1\leqslant k\leqslant n\atop k\neq i}}\frac{X-a_{k}}{a_{i}-a_{k}} \]

forment une famille libre (et donc une base de \mathbb{R}_{n-1}\left[X\right], appelée « base de Lagrange » relative aux points d’interpolation a_{1},\cdots,a_{n}). En effet, si \lambda_{1},\cdots,\lambda_{n}\in\mathbb{R} vérifient :

    \[ \sum_{i=1}^{n}\lambda_{i}L_{i}=0 \]

alors, l’évaluation en a_{j} donne, pour tout j\in\llbracket1,n\rrbracket :

    \[ \sum_{i=1}^{n}\lambda_{i}L_{i}\left(a_{j}\right)=0 \]

or

    \[ L_{i}\left(a_{j}\right)=\left\{\begin{array}{cc} 1 & \text{si }i=j\\ 0 & \text{sinon} \end{array}\right. \]

et donc :

    \[ \forall j\in\llbracket1,n\rrbracket,\thinspace\lambda_{j}=0 \]

Pour plus d’information sur l’interpolation de Lagrange, consulter cette vidéo.

Exemple 3

L’exemple que voici est étroitement lié au précédent. On se donne à nouveau n réels a_{1},\cdots,a_{n} tous distincts et l’on définit des formes linaires \psi_{1},\cdots,\psi_{n} sur l’espace \mathbb{R}_{n-1}\left[X\right] par :

    \[ \psi_{j}:\mathbb{R}_{n-1}\left[X\right]\rightarrow\mathbb{R},\thinspace P\mapsto P\left(a_{j}\right) \]

Autrement dit : \psi_{j} est la forme linéaire “ évaluation en a_{j} ”. Montrons que la famille \left(\psi_{1},\cdots,\psi_{n}\right) est libre et qu’il s’agit donc d’une base de l’espace \mathcal{L}\left(\mathbb{R}_{n-1}\left[X\right],\mathbb{R}\right) des formes linéaires sur \mathbb{R}_{n-1}\left[X\right], le fameux dual de \mathbb{R}_{n-1}\left[X\right]. Soient donc \lambda_{1},\cdots,\lambda_{n} des réels tels que :

    \[ \sum_{j=1}^{n}\lambda_{j}\psi_{j}=0 \]

(ce dernier symbole 0 désignant bien entendu la forme linéaire nulle sur \mathbb{R}_{n-1}\left[X\right]). En évaluant en L_{i}, on trouve :

    \[ \sum_{j=1}^{n}\lambda_{j}\psi_{j}\left(L_{i}\right)=0 \]

c’est-à-dire :

    \[ \sum_{j=1}^{n}\lambda_{j}L_{i}\left(a_{j}\right)=0 \]

et l’on termine comme à l’exemple 2.

6 – Penser à des vecteurs propres

Pour établir que des vecteurs sont linéairement indépendants, il suffit de les reconnaître comme des vecteurs propres pour un certain endomorphisme, associés à des valeurs propres toutes distinctes. Ceci résulte de la proposition 1 de la section 3 (exemple 3). Donnons trois exemples…

Exemple 1

Etant donné n\geqslant2 et \omega=e^{2i\pi/n}, posons pour tout q\in\llbracket0,n-1\rrbracket :

    \[ u_{q}=\left(1,\omega^{q},\omega^{2q},\cdots,\omega^{\left(n-1\right)q}\right)\in\mathbb{C}^{n} \]

Le déterminant, relativement à la base canonique de \mathbb{C}^{n}, de la famille \mathcal{F}=\left(u_{0},u_{1},\cdots,u_{n-1}\right) est non nul; on reconnaît en effet le déterminant de Vandermonde

    \[ V=\left|\begin{array}{ccccc} 1 & 1 & 1 & \cdots & 1\\ 1 & \omega & \omega^{2} & \cdots & \omega^{n-1}\\ 1 & \omega^{2} & \omega^{4} & \cdots & \omega^{2n-2}\\ \vdots & \vdots & \vdots & & \vdots\\ 1 & \omega^{n-1} & \omega^{2n-2} & \cdots & \omega^{\left(n-1\right)^{2}} \end{array}\right|=\prod_{0\leqslant k<\ell\leqslant n-1}\left(\omega^{\ell}-\omega^{k}\right) \]

et donc V\neq0, ce qui prouve que \mathcal{F} est libre. Mais on peut aussi considérer l’endomorphisme f de \mathbb{C}^{n} canoniquement associé à la matrice :

    \[ M=\left[\begin{array}{ccccc} 0 & 1 & 0 & \cdots & 0\\ \vdots & \ddots & \ddots & \ddots & \vdots\\ \vdots & & \ddots & \ddots & 0\\ 0 & \cdots & \cdots & 0 & 1\\ 1 & 0 & \cdots & \cdots & 0 \end{array}\right] \]

et constater que :

    \begin{eqnarray*}{ f\left(u_{0}\right) & = & u_{0}\\ f\left(u_{1}\right) & = & \omega\thinspace u_{1}\\ \vdots & & \vdots\\ f\left(u_{n-1}\right) & = & \omega^{n-1}\thinspace u_{n-1} \end{eqnarray*}

ce qui prouve que \mathcal{F} est une famille de vecteurs propres pour f, associés à des valeurs propres toutes distinctes (à savoir : les racines n-èmes de l’unité), d’où le résultat.

Exemple 2

Notons \mathcal{C}^{\infty}\left(\mathbb{R}\right) l’espace des applications indéfiniment dérivables de \mathbb{R} dans lui-même. Si \omega_{1},\cdots,\omega_{n}\in\mathbb{R} sont deux à deux distincts, alors les applications t\mapsto e^{\omega_{i}t} sont linéairement indépendantes, car ce sont des vecteurs propres pour l’endomorphisme de dérivation, associés à des valeurs propres toutes distinctes.

Exemple 3

Dans le même style, si \omega_{1},\cdots,\omega_{n}>0 sont deux à deux distincts, alors les applications t\mapsto\cos\left(\omega_{i}t\right) sont linéairement indépendantes. En effet, il s’agit cette fois de vecteurs propres pour l’endomorphisme de double-dérivation, associés à des valeurs propres toutes distinctes (les nombres -\omega_{i}^{2}, pour 1\leqslant i\leqslant n).

7 – Reconnaître des vecteurs orthogonaux

Proposition 2

Dans un espace vectoriel réel E muni d’un produit scalaire, toute famille de vecteurs non nuls et deux à deux orthogonaux est libre.
Cette propriété se démontre aisément. Soient v_{1},\cdots,v_{q}\in E-\left\{ 0_{E}\right\} tels que :

    \[ \forall\left(i,j\right)\in\llbracket1,q\rrbracket^{2},\thinspace i\neq j\Rightarrow\left(v_{i}\mid v_{j}\right)=0 \]

Etant donnés \lambda_{1},\cdots,\lambda_{q}\in\mathbb{R} tels que :

    \[ \sum_{i=1}^{q}\lambda_{i}v_{i}=0_{E} \]

il suffit d’effectuer le produit scalaire de chaque membre par v_{j} pour obtenir :

    \[ \forall j\in\llbracket1,q\rrbracket,\:\sum_{i=1}^{q}\lambda_{i}\left(v_{i}\mid v_{j}\right)=0 \]

c’est-à-dire :

    \[ \forall j\in\llbracket1,q\rrbracket,\thinspace\lambda_{j}\left\Vert v_{j}\right\Vert ^{2}=0 \]

Un vecteur non nul étant de norme non nulle, il reste que :

    \[ \forall j\in\llbracket1,q\rrbracket,\thinspace\lambda_{j}=0 \]

ce qui établit le résultat annoncé.

Exemple 1

Posons, pour tout k\in\mathbb{N} :

    \[ f_{k}:\left[0,2\pi\right]\rightarrow\mathbb{R},\thinspace t\mapsto\cos\left(kt\right) \]

et montrons que, pour tout n\in\mathbb{N}, la famille \left(f_{k}\right)_{0\leqslant k\leqslant n} est libre. On peut considérer les f_{k} comme vecteurs de l’espace \mathcal{C}\left(\left[0,2\pi\right],\mathbb{R}\right) des applications continues de \left[0,2\pi\right] dans \mathbb{R}, que l’on notera simplement E. Cet espace peut être muni du produit scalaire défini par :

    \[ \forall\left(f,g\right)\in E^{2},\thinspace\left(f\mid g\right)=\int_{0}^{2\pi}f\left(t\right)g\left(t\right)\thinspace dt \]

De toute évidence, les f_{k} sont non nulles. Si l’on montre qu’elles sont deux à deux orthogonales (au sens du produit scalaire ci-dessus), il suffira pour conclure d’appliquer la proposition 2. Soient donc k,\ell deux entiers naturels distincts. On calcule :

    \begin{eqnarray*} \left(f_{k}\mid f_{\ell}\right) & = & \int_{0}^{2\pi}\,\cos\left(kt\right)\cos\left(\ell t\right)\,dt\\ & = & \frac{1}{2}\int_{0}^{2\pi}\left(\cos\left(\left(k+\ell\right)t\right)+\cos\left(\left(k-\ell\right)t\right)\right)\,dt \end{eqnarray*}

Comme k\neq\ell, alors k+\ell\neq0 et k-\ell\neq0 donc :

    \[ \left(f_{k}\mid f_{\ell}\right)=\frac{1}{2}\left[\frac{\sin\left(\left(k+\ell\right)t\right)}{k+\ell}+\frac{\sin\left(\left(k-\ell\right)t\right)}{k-\ell}\right]_{t=0}^{2\pi}=0 \]

Exemple 2

On reprend ici les notations des exemples 2 et 3 de la section 5. Munissons \mathbb{R}_{n-1}\left[X\right] du produit scalaire défini par :

    \[ \forall\left(P,Q\right)\in\mathbb{R}_{n-1}\left[X\right]^{2},\:\left(P\mid Q\right)=\sum_{k=1}^{n}P\left(a_{k}\right)Q\left(a_{k}\right) \]

L’application \mathbb{R}_{n-1}\left[X\right]^{2}\rightarrow\mathbb{R},\thinspace\left(P,Q\right)\mapsto\left(P\mid Q\right) est clairement bilinéaire et symétrique. De plus, pour tout P\in\mathbb{R}_{n-1}\left[X\right] :

    \[ \left(P\mid P\right)=\sum_{k=1}^{n}P\left(a_{k}\right)^{2}\geqslant0 \]

avec égalité si, et seulement si, P\left(a_{k}\right)=0 pour tout k\in\llbracket1,n\rrbracket. Mais alors P possède au moins n racines, ce qui impose P=0. On a donc bien affaire à un produit scalaire. En outre, pour tout \left(i,j\right)\in\llbracket1,n\rrbracket^{2} :

    \[ \left(L_{i}\mid L_{j}\right)=\sum_{k=1}^{n}L_{i}\left(a_{k}\right)L_{j}\left(a_{k}\right)=\sum_{k=1}^{n}\delta_{i,k}\delta_{j,k}=\delta_{i,j} \]

Ceci montre que la famille \left(L_{1},\cdots,L_{n}\right) est orthonormale, donc libre.

8 – Utiliser des propriétés locales

Lorsqu’il s’agit de prouver l’indépendance linéaire d’une famille de fonctions numériques, il est parfois judicieux de faire intervenir leur comportement asymptotique au voisinage de tel ou tel point. Pour terminer cet article, illustrons cette idée par deux exemples.

Exemple 1

Considérons les applications f,g,h,k définies sur \mathbb{R} par :

    \[ \forall x\in\mathbb{R},\thinspace\left\{ \begin{array}{ccc} f\left(x\right) & = & \sin\left(x\right)+\cos\left(\frac{x}{2}\right)\\ g\left(x\right) & = & \sin\left(2x\right)-\sin\left(x\right)\\ h\left(x\right) & = & \sin\left(x\right)+\cos\left(x\right)\\ k\left(x\right) & = & \cos\left(x\right)-\sin\left(2x\right) \end{array}\right. \]

et soient a,b,c,d\in\mathbb{R} tels que af+bg+ch+dk=0. Utilisons les développements limités de f,g,h et k au voisinage de 0 et à l’ordre 3 :

    \[ f\left(x\right)\underset{\scriptstyle 0}{=}1+x-\frac{x^{2}}{8}-\frac{x^{3}}{6}+o\left(x^{3}\right) \]

    \[ g\left(x\right)\underset{\scriptstyle 0}{=}x-\frac{7x^{3}}{6}+o\left(x^{3}\right) \]

    \[ h\left(x\right)\underset{\scriptstyle 0}{=}1+x-\frac{x^{2}}{2}-\frac{x^{3}}{6}+o\left(x^{3}\right) \]

    \[ k\left(x\right)\underset{\scriptstyle 0}{=}1-2x-\frac{x^{2}}{2}+\frac{4x^{3}}{3}+o\left(x^{3}\right) \]

Par unicité du développement limité en un point, on obtient le système :

    \[ \left\{ \begin{array}{ccc} a+c+d & = & 0\\ \\ a+b+c-2d & = & 0\\ \\ -\frac{1}{8}a-\frac{1}{2}c-\frac{1}{2}d & = & 0\\ \\ -\frac{1}{6}a-\frac{7}{6}b-\frac{1}{6}c+\frac{4}{3}d & = & 0 \end{array}\right. \]

qui se résout facilement et donne a=b=c=d=0. La famille \left(f,g,h,k\right) est donc libre.
Si cette méthode conduit, sur un exemple similaire, à un système qui n’est pas de Cramer, cela ne signifie pas pour autant que la famille étudiée est liée (mais seulement que les polynômes correspondant aux parties régulières des développements sont linéairement dépendants).
warning-math-os

Exemple 2

Une autre idée consiste à classer (si possible) les fonctions de la famille considérée par ordre de prépondérance croissante (ou décroissante) au voisinage d’un point. Considérons des fonctions f_{i}:\left[a,+\infty\right[\rightarrow\mathbb{R} telles que :

    \[ f_{1}\underset{{\scriptstyle +\infty}}{=}o\left(f_{2}\right),\quad f_{2}\underset{{\scriptstyle +\infty}}{=}o\left(f_{3}\right),\quad\cdots\quad f_{n-1}\underset{{\scriptstyle +\infty}}{=}o\left(f_{n}\right) \]

Il est facile de prouver que la famille \left(f_{1},\cdots,f_{n}\right) est libre. En effet, si \lambda_{1},\cdots,\lambda_{n}\in\mathbb{R} sont tels que :

    \[ \forall t\in\left[a,+\infty\right[,\:\sum_{i=1}^{n}\lambda_{i}f_{i}\left(t\right)=0 \]

alors, en divisant chaque membre par f_{n}\left(t\right) (on suppose pour simplifier que les f_{i} ne s’annulent pas) puis en faisant tendre t vers +\infty, on obtient \lambda_{n}=0. Ceci permet, en raisonnant par récurrence, de prouver en cascade la nullité de chacun des \lambda_{i}. Cette procédure convient par exemple si \left(a_{1},b_{1}\right),\cdots,\left(a_{n},b_{n}\right) sont des couples deux à deux distincts de réels et, pour tout i\in\left\{ 1,\cdots,n\right\} :

    \[ f_{i}:\left]0,+\infty\right[\rightarrow\mathbb{R},\thinspace t\mapsto t^{a_{i}}e^{b_{i}t} \]

En classant les couples \left(a_{i},b_{i}\right) selon l’ordre lexicographique, on classe les fonctions f_{i} selon leur prépondérance relative au voisinage de +\infty, ce qui permet de conclure que \left(f_{1},\cdots,f_{n}\right) est libre.

Je vous remercie de m’avoir lu et j’espère que cet article vous sera utile ! Je vous rappelle qu’une première fiche d’exercices sur l’indépendance linéaire est disponible ici. N’hésitez pas à poster un commentaire ! Vous pouvez aussi me poser vos questions éventuelles en utilisant le formulaire de contact.
Partager cet article

Laisser un commentaire