Solutions détaillées de neuf exercices sur la notion d’opération sur un ensemble (fiche 01).
Cliquer ici pour accéder aux énoncés

icone-math-OS-Exos

On calcule d’une part :

    \begin{eqnarray*}\left(a\star b\right)\star c & = & \left(\lambda a+\mu b+\nu ab\right)\star c\\& = & \lambda\left(\lambda a+\mu b+\nu ab\right)+\mu c+\nu\left(\lambda a+\mu b+\nu ab\right)c\\& = & \boxed{\lambda^{2}a}+\lambda\mu b+\lambda\nu ab+\boxed{\mu c}+\boxed{\lambda\nu ac}+\mu\nu bc+\nu^{2}abc\end{eqnarray*}

et d’autre part :

    \begin{eqnarray*} a\star\left(b\star c\right) & = & a\star\left(\lambda b+\mu c+\nu bc\right)\\& = & \lambda a+\mu\left(\lambda b+\mu c+\nu bc\right)+\nu a\left(\lambda b+\mu c+\nu bc\right)\\& = & \lambda a+\lambda\mu b+\mu^{2}c+\mu\nu bc+\lambda\nu ab+\mu\nu ac+\nu^{2}abc\\& = & \boxed{\lambda a}+\lambda\mu b+\lambda\nu ab+\boxed{\mu^{2}c}+\boxed{\mu\nu ac}+\mu\nu bc+\nu^{2}abc \end{eqnarray*}


Les termes non encadrés se retrouvent dans les deux expressions. Pour que celles-ci soient égales pour tout triplet \left(a,b,c\right)\in\mathbb{R}^{3}, il est donc nécessaire et suffisant qu’on ait :

    \[\left\{ \begin{array}{cccc}\lambda^{2} & = & \lambda & (1)\\\mu^{2} & = & \mu & (2)\\\lambda\nu & = & \mu\nu & (3)\end{array}\right.\]


Comme le montre l’équation (3), deux cas se présentent :

  • si \lambda=\mu alors \nu est indéterminé. D’après (1) et (2) : \lambda=\mu=0 ou \lambda=\mu=1
  • si \nu=0 alors \left(\lambda,\mu\right)=\left(0,0\right) ou \left(1,0\right) ou \left(0,1\right) ou \left(1,1\right)

Ainsi, les opérations de cette forme qui sont associatives sont données par :

    \[a\star b=\nu ab\qquad\left(\nu\text{ quelconque}\right)\]

    \[a\star b=a+b+\nu ab\qquad\left(\nu\text{ quelconque}\right)\]

    \[a\star b=a\]

    \[a\star b=b\]

Soit A\in\mathcal{M}_{2}\left(\mathbb{Z}\right).

Supposons l’existence d’une matrice A'\in\mathcal{M}_{2}\left(\mathbb{Z}\right) telle que AA'=A'A=I_{2}. En passant aux déterminants, on voit que : \det\left(A\right)\det\left(A'\right)=1.

Comme \det\left(A\right) et \det\left(A'\right) sont des entiers, ceci impose notamment \det\left(A\right)\in\left\{ -1,1\right\} .

Réciproquement, notons A=\left[\begin{array}{cc}a & b\\c & d\end{array}\right] et supposons que ad-bc\in\left\{ -1,1\right\} . En posant A'=\left[\begin{array}{cc}d & -b\\-c & a\end{array}\right] (qui est, comme A, élément de \mathcal{M}_2(\mathbb{Z})), on observe que :

    \[A'A=AA'=\left[\begin{array}{cc}ad-bc & 0\\0 & ad-bd\end{array}\right]=\left(ad-bc\right)I_{2}\]

ce qui prouve que A est inversible, d’inverse A' (si ad-bc=1) ou -A' (si ad-bc=-1).

Par anti-commutativité du produit vectoriel, la condition \left(u\wedge v\right)\wedge w=u\wedge\left(v\wedge w\right) équivaut à :

    \[-\left[w\wedge\left(u\wedge v\right)\right]=u\wedge\left(v\wedge w\right)\]

donc (via la formule du double-produit vectoriel rappelée dans les indications) à :

    \[-\left(\left(v\mid w\right)u-\left(u\mid w\right)v\right)=\left(u\mid w\right)v-\left(u\mid v\right)w\]

c’est-à-dire :

    \[\left(v\mid w\right)u=\left(v\mid u\right)w\qquad\left(\star\right)\]

Cette égalité est vérifiée dès que la famille \left(u,w\right) est liée.

Et si \left(u,w\right) est libre, alors \left(\star\right)\Leftrightarrow\left(\left(v\mid u\right)=0\text{ et }\left(v\mid w\right)=0\right).

Bref, la condition cherchée est :

    \[\boxed{\left(u, w\right)\text{ liée ou }\left(v\bot u\text{ et }v\bot w\right)}\]

Supposons que f\in E^{E} est inversible à gauche. Il existe donc g\in E^{E} vérifiant g\circ f=id_{E}. Comme id_{E} est injective, ceci impose à f d’être injective.

Réciproquement, si f est injective, on peut définir une application g:E\rightarrow E en associant à chaque élément de f\left\langle E\right\rangle son unique antécédent par f et en associant à chaque élément de E-f\left\langle E\right\rangle un élément quelconque, préalablement choisi dans E.

Il est alors clair que g\circ f=id_{E}, ce qui prouve que :

    \[\boxed{f\text{ inversible à gauche}\Leftrightarrow f\text{ injective}}\]

Si f\in E^{E} est inversible à droite, alors c’est qu’il existe g\in E^{E} telle que f\circ g=id_{E}, ce qui entraîne la surjectivité de f (puisque id_{E} est surjective).

Réciproquement, supposons f surjective. L’axiome du choix permet d’associer à chaque élément de e\in E un élément choisi dans f^{-1}\left\langle \left\{ e\right\} \right\rangle (qui est non vide par hypothèse). On dispose ainsi d’une application g\in E^{E} vérifiant f\circ g=id_{E}. Par conséquent :

    \[\boxed{f\text{ inversible à droite}\Leftrightarrow f\text{ surjective}}\]

Soient a=\left(a_{n}\right)_{n\in\mathbb{N}} et b=\left(b_{n}\right)_{n\in\mathbb{N}} deux suites réelles.

Par définition :

    \[a\star b=\left(u_{n}\right)_{n\in\mathbb{N}}\qquad\text{et}\qquad b\star a=\left(v_{n}\right)_{n\in\mathbb{N}}\]

avec, pour tout n\in\mathbb{N} :

    \[u_{n}=\sum_{k=0}^{n}a_{k}b_{n-k}\underset{\diamondsuit}{=}\sum_{j=0}^{n}a_{n-j}b_{j}=v_{n}\]

l’égalité \left(\diamond\right) résultant du changement d’indice j=n-k. Ceci montre que \star est commutative.

Passons à l’associativité. Ajoutons une troisième suite réelle c=\left(c_{n}\right)_{n\in\mathbb{N}}. Par définition :

    \[\left(a\star b\right)\star c=\left(x_{n}\right)_{n\in\mathbb{N}}\qquad\text{et}\qquad a\star\left(b\star c\right)=\left(y_{n}\right)_{n\in\mathbb{N}}\]

avec, pour tout n\in\mathbb{N} :

    \[ x{n}=\sum_{k=0}^{n}\left(\sum_{j=0}^{k}a_{j}b_{k-j}c_{n-k}\right)\]

et

    \[y_{n}=\sum_{k=0}^{n}\left(\sum_{j=0}^{n-k}a_{k}b_{j}c_{n-k-j}\right)\]

En intervertissant les sommes dans l’expression de x_{n} (domaine de sommation triangulaire : voir cet article), on obtient :

    \begin{eqnarray*}x_{n} & = & \sum_{j=0}^{n}\left(\sum_{k=j}^{n}a_{j}b_{k-j}c_{n-k}\right)\\& = & \sum_{j=0}^{n}a_{j}\left(\sum_{k=j}^{n}b_{k-j}c_{n-k}\right)\\& = & \sum_{j=0}^{n}a_{j}\left(\sum_{i=0}^{n-j}b_{i}c_{n-i-j}\right) \end{eqnarray*}

la dernière égalité résultant du changement d’indice i=k-j (dans la somme interne). On constate alors que x_{n}=y_{n}, ce qui prouve que \star est associative.

Notons e=\left(\delta_{n,0}\right)_{n\in\mathbb{N}} (\delta_{i,j} est le symbole de Kronecker).

En clair, e est la suite dont les termes successifs sont 1, 0, 0, … etc …

Pour toute suite réelle a=\left(a_{n}\right)_{n\in\mathbb{N}}, on constate que :

    \[a\star e=\left(c_{n}\right)_{n\in\mathbb{N}}\quad\text{avec }\forall n\in\mathbb{N},\thinspace c_{n}=\sum_{k=0}^{n}a_{k}\delta_{n,k}=a_{n}\]

et donc a\star e=a, ce qui prouve (vue la commutativité) que e est neutre.

Pour finir, supposons qu’une suite a=\left(a_{n}\right)_{n\in\mathbb{N}} soit inversible. Il existe donc b=\left(b_{n}\right)_{n\in\mathbb{N}} telle que a\star b=e. En particulier : a_{0}b_{0}=1, ce qui entraîne a_{0}\neq0.

Réciproquement, supposons a_{0}\neq0 et montrons qu’il existe une suite b=\left(b_{n}\right)_{n\in\mathbb{N}} vérifiant a\star b=e. Cette égalité équivaut à :

    \[\left\{ \begin{array}{cccc} & a_{0}b_{0}=1 & & \left(\mathcal{R}_{0}\right)\\\forall n\in\mathbb{N}^{\star}, & {\displaystyle \sum_{k=0}^{n}a_{k}b_{n-k}=0} & & \left(\mathcal{R}_{n}\right)\end{array}\right.\]

Comme a_{0}\neq0, on peut calculer b_{0} avec l’égalité \left(\mathcal{R}_{0}\right). Supposons l’existence de réels b_{0},\cdots,b_{q} pour un certain q\in\mathbb{N} vérifiant les relations \left(\mathcal{R}_{0}\right),\cdots,\left(\mathcal{R}_{q}\right). Comme a_{0}\neq0, la relation \left(\mathcal{R}_{q+1}\right) peut être satisfaite en posant :

    \[b_{q+1}=-\frac{1}{a_{0}}\sum_{k=1}^{q+1}a_{k}b_{q+1-k}\]

Ceci montre le résultat par récurrence. En conclusion, les suites réelles inversibles sont celles dont le terme d’indice 0 est non nul.

Remarque

Ces calculs constituent les premiers pas de la construction de l’algèbre \mathbb{R}\left[\left[X\right]\right] des séries formelles à une indéterminée sur le corps des réels.

Pour l’équation A\cap X=B, il n’existe aucune solution si B\not\subset A.

Supposons maintenant que B\subset A. Pour tout X\subset E, on peut écrire : X=\left(A\cap X\right)\cup\left(\overline{A}\cap X\right) (où \overline{A} désigne le complémentaire de A dans E).

Donc si X est solution, alors il existe Y\subset\overline{A} tel que X=B\cup Y.

Réciproquement, si X est de cette forme, alors A\cap X=A\cap\left(B\cup Y\right)=\left(A\cap B\right)\cup\left(A\cap Y\right)=B, puisque A\cap B=B et A\cap Y=\emptyset.

En conclusion, l’ensemble de solutions de A\cap X=B est :

    \[\boxed{\mathcal{S}=\left\{ \begin{array}{cc}\emptyset & \text{si }B\not\subset A\\\\\left\{ B\cup Y;\thinspace Y\in\mathcal{P}\left(\overline{A}\right)\right\} & \text{sinon}\end{array}\right.}\]

Pour l’équation A\cup X=B, il n’existe aucune solution si A\not\subset B.

Supposons désormais que A\subset B. Si X\subset E vérifie A\cup X=B, alors X\subset B donc (faire un dessin peut aider) :

    \[X=\left(X\cap\left(B-A\right)\right)\cup\left(X\cap A\right)\]

or :

    \[X\cap\left(B-A\right)=\left(A\cup X\right)\cap\left(B-A\right)=B\cap\left(B-A\right)=B-A\]

d’où B-A\subset X. Ainsi, il existe Y\subset A tel que X=\left(B-A\right)\cup Y.

Réciproquement, si X est de cette forme, alors A\cup X=B.

Finalement, l’ensemble de solutions de A\cup X=B est :

    \[\boxed{\mathcal{S}=\left\{ \begin{array}{cc}\emptyset & \text{si }A\not\subset B\\\\\left\{ \left(B-A\right)\cup Y;\thinspace Y\in\mathcal{P}\left(A\right)\right\} & \text{sinon}\end{array}\right.}\]

Munissons \mathcal{M}_{2}\left(\mathbb{R}\right) du produit matriciel.

On sait bien que, pour cette opération, il existe un élément neutre à savoir I_{2}=\left[\begin{array}{cc}1 & 0\\0 & 1\end{array}\right].

Considérons l’ensemble A=\mathcal{M}_2(]0,+\infty[).

A est une partie de \mathcal{M}_{2}\left(\mathbb{R}\right), stable pour le produit matriciel, mais il n’existe pas de matrice E\in A telle que \forall M\in A,\thinspace EM=ME=M.

En effet, il existe dans A des matrices inversibles, comme par exemple W=\left[\begin{array}{cc}1 & 2\\3 & 4\end{array}\right]; et s’il existait une telle matrice E, l’égalité EW=W impliquerait (en multipliant à droite par W^{-1}) que E=I_{2} ce qui est absurde, vu que I_{2}\notin A.

Maintenant, considérons l’ensemble :

    \[B=\left\{ \left[\begin{array}{cc}x & 0\\0 & 0\end{array}\right];\thinspace x\in\mathbb{R}\right\}\]

Il s’agit là encore d’une partie de \mathcal{M}_{2}\left(\mathbb{R}\right), stable par produit. Mais cette fois, il existe un élément neutre dans B, à savoir la matrice \left[\begin{array}{cc} 1 & 0\\ 0 & 0 \end{array}\right]. Et cette matrice n’est pas la matrice I_{2}.

Soit x\in G. Notons x' un inverse à droite de x et x'' un inverse à droite de x'. Alors :

    \[x\star x'=e=e\star e=e\star\left(x\star x'\right)=\left(e\star x\right)\star x'\]

d’où en multipliant à droite par x'' et par associativité :

    \[x\star\left(x'\star x''\right)=\left(e\star x\right)\star\left(x'\star x''\right)\]

c’est-à-dire :

    \[\boxed{x=e\star x}\]

Ainsi, e est un élément neutre à gauche et donc un élément neutre tout court (et donc l‘élément neutre).

En outre :

    \[x'=x'\star e=x'\star\left(x\star x'\right)=\left(x'\star x\right)\star x'\]

et donc en multipliant à droite par x'' et par associativité :

    \[x'\star x''=\left(x'\star x\right)\star\left(x'\star x''\right)\]

c’est-à-dire :

    \[\boxed{e=x'\star x}\]

ce qui prouve que x' est un inverse à gauche de x et donc un inverse de x tout court (et donc l‘inverse de x).

Conclusion : \left(G,\star\right) est un groupe.

Remarque

Ce résultat est connu sous le nom « d’axiomes faibles » de groupe.

exercice 9 difficile

Tout d’abord, l’hypothèse d’associativité donne un sens à x^{n}, pour tout \left(x,n\right)\in E\times\mathbb{N}^{\star}.

Fixons x\in E. Comme E est fini, l’application \mathbb{N}^{\star}\rightarrow E,\,n\mapsto x^{n} n’est pas injective.

Il existe donc \left(p,r\right)\in\mathbb{N}^{\star2} tel que x^{p}=x^{p+r}.

Il en résulte, par récurrence, que : \forall k\in\mathbb{N},\,x^{p+kr}=x^{p}.

Pour k=p, il vient x^{\left(r+1\right)p}=x^{p}, c’est-à-dire y^{r+1}=y, où l’on a posé y=x^{p}.

➡ Si r=1, alors y^{2}=y et c’est fini.

➡ Si r>1, on multiplie les deux membres de l’égalité y^{r+1}=y par y^{r-1}, ce qui donne y^{2r}=y^{r}, soit z^{2}=z avec z=y^{r}.

Retenons que dans tout magma associatif fini, il existe au moins un élément idempotent.


Si un point n’est pas clair ou vous paraît insuffisamment détaillé, n’hésitez pas à poster un commentaire ou à me joindre via le formulaire de contact.

Partager cet article

Laisser un commentaire