Archives du mot-clé Mécanique

Triomphe de Babar (2) : Preuve de Varignon sans algèbre

Si, dans le billet précédent, la preuve de l’équivalence entre champ vectoriel équiprojectif et relation de Varignon vous a été donnée, cette dernière fait intervenir une bonne part d’algèbre.

Je vais essayer de vous proposer ici une preuve ne faisant intervenir que des concepts de géométrie vectorielle et on pourra en profiter pour voir une méthode pour prouver des relations vectorielles.

Tourne le produit mixte

Le produit mixte est invariant par permutation circulaire, on peut réécrire cette propriété comme suis :

\forall \vec{a},\vec{b},\vec{c} \quad \left ( \vec{a} \wedge \vec{b}  \right ) . \vec{c} = \left ( \vec{c} \wedge \vec{a}  \right ).\vec{b} = \left (\vec{b} \wedge \vec{c}  \right ).\vec{a}

Remarquons qu’il suffit de prouver la première égalité pour prouver immédiatement la seconde.

Remarquons que si l’on décompose chaque vecteur dans une base orthonormée, il suffit que la relation soit vraie pour tous les triplet de la base pour qu’elle soit vraie pour tous les vecteurs de l’espace.

Alors, si, à priori, la preuve pourrait sembler complexe, ce n’est plus le cas : elle est, au pire, un petit peu fastidieuse : trois triplets avec trois choix pour chacun représentent 3^3 = 27 cas à traiter. Dans l’idéal, une représentation en cube aurait été parfaite, mais cette dernière est difficilement possible sur le papier.

Nous allons donc nous contenter de trois tableaux 3×3. Voici d’abord ceux de \left ( \vec{a} \wedge \vec{b} \right ) . \vec{c}

\vec{c} = \vec{x}\\ \begin{array}{|c|c|c|c|} \hline \vec{a} \backslash \vec{b} & \vec{x} &  \vec{y} &  \vec{z}\\ \hline \vec{x} & \vec{0}.\vec{x}=0 &  \vec{z}.\vec{x}=0 &  -\vec{y}.\vec{x}=0\\ \hline \vec{y} & -\vec{z}.\vec{x}=0 &  \vec{0}.\vec{x}=0 &  \vec{x}.\vec{x}=1\\ \hline \vec{z} & \vec{y}.\vec{x}=0 &  -\vec{x}.\vec{x}=-1 &  \vec{0}.\vec{x}=0\\ \hline \end{array}

\vec{c} = \vec{y}\\ \begin{array}{|c|c|c|c|} \hline \vec{a} \backslash \vec{b} & \vec{x} &  \vec{y} &  \vec{z}\\ \hline \vec{x} & \vec{0}.\vec{y}=0 &  \vec{z}.\vec{y}=0 &  -\vec{y}.\vec{y}=-1\\ \hline \vec{y} & -\vec{z}.\vec{y}=0 &  \vec{0}.\vec{y}=0 &  \vec{x}.\vec{y}=0\\ \hline \vec{z} & \vec{y}.\vec{y}=1 &  -\vec{x}.\vec{y}=0 &  \vec{0}.\vec{y}=0\\ \hline \end{array}

\vec{c} = \vec{z}\\ \begin{array}{|c|c|c|c|} \hline \vec{a} \backslash \vec{b} & \vec{x} &  \vec{y} &  \vec{z}\\ \hline \vec{x} & \vec{0}.\vec{z}=0 &  \vec{z}.\vec{z}=1 &  -\vec{y}.\vec{z}=0\\ \hline \vec{y} & -\vec{z}.\vec{z}=-1 &  \vec{0}.\vec{z}=0 &  \vec{x}.\vec{z}=0\\ \hline \vec{z} & \vec{y}.\vec{z}=0 &  -\vec{x}.\vec{z}=0 &  \vec{0}.\vec{z}=0\\ \hline \end{array}

Nous allons donc pouvoir les comparer aux tableaux obtenus avec \left ( \vec{c} \wedge \vec{a}  \right ).\vec{b} :

\vec{c} = \vec{x}\\ \begin{array}{|c|c|c|c|} \hline \vec{a} \backslash \vec{b} & \vec{x} &  \vec{y} &  \vec{z}\\ \hline \vec{x} & \vec{0}.\vec{x}=0 &  \vec{0}.\vec{y}=0 &  -\vec{0}.\vec{z}=0\\ \hline \vec{y} & \vec{z}.\vec{x}=0 &  \vec{z}.\vec{y}=0 &  \vec{z}.\vec{z}=1\\ \hline \vec{z} & -\vec{y}.\vec{x}=0 &  -\vec{y}.\vec{y}=-1 &  -\vec{y}.\vec{z}=0\\ \hline \end{array}

\vec{c} = \vec{y}\\ \begin{array}{|c|c|c|c|} \hline \vec{a} \backslash \vec{b} & \vec{x} &  \vec{y} &  \vec{z}\\ \hline \vec{x} & -\vec{z}.\vec{x}=0 &  -\vec{z}.\vec{y}=0 &  -\vec{z}.\vec{z}=-1\\ \hline \vec{y} & \vec{0}.\vec{x}=0 &  \vec{0}.\vec{y}=0 &  \vec{0}.\vec{z}=0\\ \hline \vec{z} & \vec{x}.\vec{x}=1 &  \vec{x}.\vec{y}=0 &  \vec{x}.\vec{z}=0\\ \hline \end{array}

\vec{c} = \vec{z}\\ \begin{array}{|c|c|c|c|} \hline \vec{a} \backslash \vec{b} & \vec{x} &  \vec{y} &  \vec{z}\\ \hline \vec{x} & \vec{y}.\vec{x}=0 &  \vec{y}.\vec{y}=1 &  \vec{y}.\vec{z}=0\\ \hline \vec{y} & -\vec{x}.\vec{x}=-1 &  -\vec{x}.\vec{y}=0 &  -\vec{x}.\vec{z}=0\\ \hline \vec{z} & \vec{0}.\vec{x}=0 &  \vec{0}.\vec{y}=0 &  \vec{0}.\vec{z}=0\\ \hline \end{array}

Le résultat est identique dans les 27 cas, donc la formule est vraie dans le cas général.

On peut noter plusieurs remarques :

  • on aurait pu aisément faire seulement 3 tableaux pour ne représenter que la différence entre le terme de gauche par le terme de droite et constater qu’il est nul pour tous les triplets ;
  • dans ce cas particulier, on peut constater que beaucoup de cas sont nuls trivialement (le produit vectoriel d’un vecteur par lui-même est nul, et le produit vectoriel est orthogonal a ses deux antécédents) : seuls les cas où \vec{a}, \vec{b} et \vec{c} sont différents présentent un résultat non trivial : cela représente seulement 3! = 6 cas ;
  • on peut construire une base ad hoc pour se simplifier les choses et limiter le nombre de cas à étudier : si \vec{a}/\left \Vert \vec{a} \right \Vert est considérée comme le premier élément de la base orthonormée considérée. On peut de la même façon considérer que la deuxième vecteur peut être représenté uniquement grâce aux deux premiers vecteurs de la base grâce au choix du deuxième vecteur de la base (voir la suite).

Preuve du double produit

Prouvons maintenant la formule du double produit vectoriel ainsi :

\left ( \vec{a} \wedge \vec{b} \right ) \wedge \vec{c} = \left (\vec{a}.\vec{c} \right ) \vec{b}- \left (\vec{b}.\vec{c} \right )\vec{a}

La définition de la base se fera ainsi :

  • Dans le cas où \vec{a} et \vec{b} ne sont pas colinéaire, on travaillera dans la base suivante :
    \mathcal{B} = \left ( \vec{x} = \dfrac{\vec{a}}{\left \Vert \vec{a} \right \Vert}, \vec{y} = \dfrac{\vec{b}-(\vec{b}.\vec{x})\vec{x}}{\left \Vert \vec{b}-(\vec{b}.\vec{x})\vec{x} \right \Vert}, \vec{z}=\vec{x}\wedge \vec{y} \right )
  • Si \vec{a} et \vec{b} sont colinéaires et \vec{a} \neq \vec{0}, on travaillera dans n’importe quelle base commençant par le vecteur \vec{x} défini de la même façon.
  • Dans le cas où \vec{a} = \vec{0} et \vec{b} \neq \vec{0}, on définit \vec{y}=\vec{b}/\left \Vert \vec{b} \right \Vert et les deux autres vecteurs de façon quelconque.
  • Si \vec{a} et \vec{b} sont nuls, alors n’importe quelle base convient.

Le but de cette construction est de faire en sorte que, dans tous les cas, le vecteur \vec{a} est porté par \vec{x}, et le vecteur \vec{b} est porté par \vec{x} et \vec{y} et \vec{c} est quelconque. La construction est unpetit peu fastidieuse, mais c’est parce qu’elle demande de prendre en compte les cas particuliers.

Mais, grâce à elle, on se retrouve donc avec seulement 6 cas à étudier au lieu de 27.

Voici d’abord le résultat pour le membre de gauche \left ( \vec{a} \wedge \vec{b} \right ) \wedge \vec{c} :

\vec{a} = \vec{x}\\ \begin{array}{|c|c|c|c|} \hline \vec{b} \backslash \vec{c} & \vec{x} &  \vec{y} &  \vec{z}\\ \hline \vec{x} & \vec{0}\wedge\vec{x}=\vec{0} &  \vec{0}\wedge\vec{y}=\vec{0} &  \vec{0}\wedge\vec{z}=\vec{0} \\ \hline \vec{y} & \vec{z}\wedge\vec{x}=\vec{y} &  \vec{z}\wedge\vec{y}=-\vec{x} &  \vec{z}\wedge\vec{z}=\vec{0} \\ \hline \end{array}

Et voici le résultat pour le membre de droite \left (\vec{a}.\vec{c} \right ) \vec{b}- \left (\vec{b}.\vec{c} \right )\vec{a} :

\vec{a} = \vec{x}\\ \begin{array}{|c|c|c|c|} \hline \vec{b} \backslash \vec{c} & \vec{x} &  \vec{y} &  \vec{z}\\ \hline \vec{x} & 1\vec{x}-1\vec{x}=\vec{0} & 0\vec{x}-0\vec{x}=\vec{0} &  0\vec{x}-0\vec{x}=\vec{0} \\ \hline \vec{y} & 1\vec{y}-0\vec{x}=\vec{y} &  0\vec{y}-1\vec{x}=-\vec{x} &  0\vec{y}-0\vec{x}=\vec{0} \\ \hline \end{array}

Les résultats des deux tableaux correspondent, donc on a prouvé notre relation dans une base particulière, donc dans toutes les bases.

Ce n’est surement pas la preuve la plus élégante, mais elle possède un atout que je trouve redoutable : elle permet de vérifier une formule vectorielle floue en moins d’une minute sur un brouillon.

L’orthogonalité vue comme conséquence d’un produit vectoriel

On se pose une équation d’orthogonalité de vecteur tel que :

\vec{a}.\vec{b} = 0

On veut prouver alors que cela implique qu’il existe une famille de vecteur \vec{c} + \lambda \vec{b} tel que :

\vec{c}.\vec{b} = 0 \\ \vec{a} = \left ( \vec{c} + \lambda \vec{b} \right ) \wedge \vec{b}

Le fait que l’ajout du vecteur \lambda \vec{b} ne change rien au résultat est assez évident. L’une des manières de construire cette démonstration est de trouver un vecteur \vec{c} qui convienne.

On propose par exemple, tant que \vec{b} \neq \vec{0}  :

\vec{c} = \dfrac{\vec{b} \wedge \vec{a}}{\vec{b}.\vec{b}}

Vérifions que l’on retrouve bien le bon résultat en utilisant la formule du double produit vectoriel :

\vec{c} \wedge \vec{b} = \dfrac{\vec{b} \wedge \vec{a}}{\vec{b}.\vec{b}} \wedge \vec{b} = \dfrac{(\vec{b}.\vec{b})\vec{a}-(\vec{b}.\vec{a})\vec{b}}{\vec{b}.\vec{b}} = \vec{a}

Dans le cas où \vec{b} = \vec{0}, il suffit de prendre : \vec{c} = \vec{0} par exemple, bien que dans ce cas-là, toutes les résultantes soient possibles.

Il est donc toujours possible de construire une relation de produit vectoriel à partir d’une orthogonalité.

Propriété fondamentale de la fonction différence des moments

Soit une base orthonormée \left ( \vec{i},\vec{j},\vec{k} \right ), une origine O et un champ équiprojectif de moment \mathcal{M}(M).

On pose la fonction \vec{u_O}(M) =\mathcal{M}(M)-\mathcal{M}(0) qui, à tout point de l’espace, associe la différence du moment en ce point par le moment à l’origine O.

Par la relation d’équiprojectivité, on obtient rapidement que :

\vec{u_O}(M).\vec{OM} = 0

Il existe donc une famille de vecteur \vec{R}_O(M) + \lambda \vec{OM} tel que :

\vec{u_O}(M)= (\vec{R}_O(M) + \lambda \vec{OM}) \wedge \vec{OM}

De même pour le point N quelconque aussi : il existe une famille de vecteur \vec{R}_O(N) + \mu \vec{ON} tel que :

\vec{u_O}(N)= (\vec{R}_O(N) + \mu \vec{ON}) \wedge \vec{ON}

Si on soustrait les deux relations précédentes, on obtient donc :

\vec{u_O}(M) - \vec{u_O}(N) = (\vec{R}_O(M) + \lambda \vec{OM}) \wedge \vec{OM} - (\vec{R}_O(N) + \mu \vec{ON}) \wedge \vec{ON}

En repassant par la définition de la fonction \vec{u_O}(M) et en utilisant la propriété d’équiprojectivité du champ des moments, lorsqu’on projette cette équation sur \vec{MN}, on obtient :

0 = \left ( (\vec{R}_O(M) + \lambda \vec{OM}) \wedge \vec{OM} \right ). \vec{MN}- \left ( (\vec{R}_O(N) + \mu \vec{ON}) \wedge \vec{ON}\right ). \vec{MN}

En utilisant l’invariance du produit mixte par permutation circulaire, on obtient :

0 = \left ( \vec{OM} \wedge \vec{MN} \right ) . \left ( \vec{R}_O(M) + \lambda \vec{OM} \right ) - \left ( \vec{ON} \wedge \vec{MN} \right ) . \left (\vec{R}_O(N) + \mu \vec{ON} \right )

Or, on peut réécrire le premier produit vectoriel :

\vec{OM} \wedge \vec{MN} =\vec{OM} \wedge \vec{MN}+\vec{OM} \wedge \vec{OM} = \vec{OM} \wedge \left( \vec{OM}  +\vec{MN} \right) = \vec{OM} \wedge \vec{ON}

De même pour le deuxième produit vectoriel :

\vec{ON} \wedge \vec{MN} = \vec{ON} \wedge \left( \vec{MN}  +\vec{NO} \right) = \vec{ON} \wedge \vec{MO}= \vec{OM} \wedge \vec{ON}

On obtient pour tout point M et N la relation suivante :

\left ( \vec{OM} \wedge \vec{ON} \right ) . \left ( \vec{R}_O(M) + \lambda \vec{OM} - \vec{R}_O(N) - \mu \vec{ON} \right ) = 0

C’est cette relation qui sera surtout utilisée par la suite.

Preuve sur 3 points particuliers du repère

Soient les trois points I, J et K définis par :

\vec{OI} = \vec{i}, \quad \vec{OJ} = \vec{j}, \quad \vec{OK} = \vec{k}

Si on remplace le couple M et N par I et J, puis par J et K et enfin par K et I, on obtient les trois relations suivantes :

\left ( \vec{OI} \wedge \vec{OJ} \right ) . \left ( \vec{R}_O(I) + \lambda \vec{OI} - \vec{R}_O(J) - \mu \vec{OJ} \right ) = 0 \\ \left ( \vec{OJ} \wedge \vec{OK} \right ) . \left ( \vec{R}_O(J) + \lambda \vec{OJ} - \vec{R}_O(K) - \mu \vec{OK} \right ) = 0 \\ \left ( \vec{OK} \wedge \vec{OI} \right ) . \left ( \vec{R}_O(K) + \lambda \vec{OK} - \vec{R}_O(I) - \mu \vec{OI} \right ) = 0

Que l’on peut simplement réécrire :

\left ( \vec{R}_O(I) + \lambda \vec{i} \right ). \vec{k} = \left ( \vec{R}_O(J) + \mu \vec{j} \right ). \vec{k} \\ \left ( \vec{R}_O(J) + \mu \vec{j} \right ). \vec{i} = \left ( \vec{R}_O(K) + \nu \vec{k} \right ). \vec{i} \\ \left ( \vec{R}_O(K) + \nu \vec{k} \right ). \vec{j} = \left ( \vec{R}_O(I) + \lambda \vec{i} \right ). \vec{j}

Si on choisit correctement les valeurs de \lambda, \mu, \nu, on obtient un vecteur qui appartient aux trois familles de vecteurs en même temps :

\lambda= \vec{R}_O(J). \vec{i} = \vec{R}_O(K). \vec{i} \\ \mu = \vec{R}_O(K). \vec{j} = \vec{R}_O(I). \vec{j} \\ \nu = \vec{R}_O(I). \vec{k} = \vec{R}_O(J). \vec{k}

Et on a donc un vecteur unique \vec{R}_O(\mathcal{B}) tel que :

\vec{u_O}(I)= \vec{R}_O(\mathcal{B}) \wedge \vec{OI} \\ \vec{u_O}(J)= \vec{R}_O(\mathcal{B}) \wedge \vec{OJ} \\ \vec{u_O}(K)= \vec{R}_O(\mathcal{B}) \wedge \vec{OK}

Il ne reste donc plus qu’à prouver que ceci est vrai pour n’importe quel point M.

Généralisation pour tous les points

Pour un point M  d’abscisse x, d’ordonnée y et de cote z, on obtient en remplaçant le couple M et N par M et I, puis par M et J et enfin par M et K :

\left ( \vec{OM} \wedge \vec{OI} \right ) . \left ( \vec{R}_O(M) + \lambda \vec{OM} - \vec{R}_O(\mathcal{B}) \right ) = 0 \\ \left ( \vec{OM} \wedge \vec{OJ} \right ) . \left ( \vec{R}_O(M) + \lambda \vec{OM} - \vec{R}_O(\mathcal{B}) \right ) = 0 \\ \left ( \vec{OM} \wedge \vec{OK} \right ) . \left ( \vec{R}_O(M) + \lambda \vec{OM} - \vec{R}_O(\mathcal{B}) \right ) = 0

Par invariance du produit mixte par permutation circulaire, on obtient donc :

\left ( \left ( \vec{R}_O(M) + \lambda \vec{OM} - \vec{R}_O(\mathcal{B}) \right ) \wedge \vec{OM} \right ) . \vec{OI} = 0 \\ \left ( \left ( \vec{R}_O(M) + \lambda \vec{OM} - \vec{R}_O(\mathcal{B}) \right ) \wedge \vec{OM} \right ) . \vec{OJ} = 0 \\ \left ( \left ( \vec{R}_O(M) + \lambda \vec{OM} - \vec{R}_O(\mathcal{B}) \right ) \wedge \vec{OM} \ \right ) . \vec{OK} = 0

On retrouve une relation vectorielle projetée sur tous les vecteurs de la base, ce qui prouve donc que :

\left ( \vec{R}_O(M) + \lambda \vec{OM} - \vec{R}_O(\mathcal{B}) \right ) \wedge \vec{OM}= \vec{0}

Donc \left ( \vec{R}_O(M) + \lambda \vec{OM} - \vec{R}_O(\mathcal{B}) \right ) et \vec{OM} sont colinéaires. Que l’on peut réécrire par le fait qu’il existe un réel k tel que :

\vec{R}_O(M) + \lambda \vec{OM} - \vec{R}_O(\mathcal{B}) = k \vec{OM}

Pour \lambda =k, on obtient bien que \vec{R}_O(\mathcal{B}) fait partie de la famille qui permet le calcul de la fonction \vec{u_O}(M).

Indépendance de l’origine

On a donc bien obtenu que pour n’importe quel point M, il existe un unique vecteur \vec{R}_O tel que :

\vec{u_O}(M) =\mathcal{M}(M)-\mathcal{M}(0) = \vec{R}_O \wedge \vec{OM}

Donc cela est aussi vrai pour le point N quelconque aussi :

\vec{u_O}(N) =\mathcal{M}(N)-\mathcal{M}(0) = \vec{R}_O \wedge \vec{ON}

Si l’on soustrait ces deux relations, on obtient alors :

\mathcal{M}(M)-\mathcal{M}(N) = \vec{R}_O \wedge \vec{MN}

On voit que le point origine n’intervient plus : la résultante est indépendante de ce point arbitraire, et on peut la renomer simplement \vec{R} tel que, quels que soient deux points M et N :

\mathcal{M}(M)-\mathcal{M}(N) = \vec{R} \wedge \vec{MN}

Le triomphe de Babar ou la preuve de Varignon

Toutes les personnes ayant subi un cours classique de mécanique en France connaissent cet outil qu’est le torseur… Mais le connait-on si bien que cela ?

Ce petit billet est juste là pour rappeler quelques propriétés et mettre en place quelques preuves qui sont souvent très vite passées sous silence, soit par manque d’intérêt pratique, soit par manque de fondement mathématique chez les étudiants.

Définition d’un torseur

Un torseur est un champ vectoriel équiprojectif. Je sais, cela commence fort… mais qu’est-ce que cela signifie ? Un champ vectoriel est juste une fonction qui associe un vecteur à chaque point d’un espace. Ainsi, l’accélération de la pesanteur est un champ vectoriel : en chaque point de l’espace, on peut y associer une norme et une direction. Dans le cas d’un torseur, on parlera de moment en un point.

La propriété d’équiprojectivité oblige à se tourner vers la notion d’espace vectoriel euclidien, c’est-à-dire un espace muni d’un produit scalaire, c’est-à-dire une forme bilinéaire (linéaire suivant chacune de ses deux entrées), symétrique (\vec{u}.\vec{v} = \vec{v}.\vec{u} ), définie (\vec{u}.\vec{u} = 0 ssi  \vec{u} = \vec{0}) et positive (\vec{u}.\vec{u} \geq 0).

Parmi les propriétés fondamentales du produit scalaire, l’une des plus importantes est la projection, qui permet de passer d’une équation vectorielle à une version scalaire ne représentant que ce qui se passe  suivant une direction particulière.

L’équiprojectivité : le latin pour les nuls

Du latin aequus (égal), et projicio (jeter en avant, projacio). Il s’agit donc d’une projection identique de notre champ vectoriel.

La propriété d’équiprojectivité consiste en effet à avoir, pour deux points différents A et B, les moments correspondants (\vec{\mathcal{M}}(A) et \vec{\mathcal{M}}(B)) qui ont la même projection. Mais la question subsiste, suivant quelle direction ? La réponse est la plus simple possible : suivant la direction créée par les deux points pris au hasard.

On peut donc réécrire la propriété fondamentale d’un champ équiprojectif comme étant :
\forall (A,B) \quad\vec{\mathcal{M}}(B).\vec{AB} = \vec{\mathcal{M}}(A).\vec{AB}

Mais on sait tous que cette relation est presque anecdotique devant une relation bien plus importante, connue sous le nom civil de relation de Varignon, ou par son nom de scène : formule BABAR :
\forall (A,B) \exists! \vec{R} \quad | \quad \vec{\mathcal{M}}(B) = \vec{\mathcal{M}}(A) + \vec{BA} \wedge \vec{R}

Ce vecteur \vec{R} est appelé résultante. Et, croyez-le ou non, ces deux formulations sont exactement équivalentes (dans un espace de dimension 3). Le fait de prouver qu’un champ vectoriel répondant à la formule de Varignon est bien équiprojectif est presque trivial : si on projette Varignon sur \vec{AB}, on obtient :
\forall (A,B) \quad \vec{\mathcal{M}}(B).\vec{AB} = \vec{\mathcal{M}}(A).\vec{AB} + \vec{BA} \wedge \vec{R}.\vec{AB} = \vec{\mathcal{M}}(A).\vec{AB}

Deux façons possibles, par exemple, pour se convaincre que la deuxième moitié du terme de droite est nulle :

  • le produit scalaire de deux termes orthogonaux est toujours nul et le résultat d’un produit vectoriel est orthogonal à ses deux termes ;
  • le produit mixte résultant a ses trois termes trivialement coplanaires (le volume du parallélépipède engendré par ces trois vecteurs est donc nul).

Nous allons garder le reste du billet pour montrer que la réciproque est vraie : pour cela, nous allons montrer que la fonction \vec{u} : \vec{AB} \rightarrow \vec{u}(\vec{AB}) = \left ( \vec{\mathcal{M}}(B) - \vec{\mathcal{M}}(A) \right ) est un endomorphisme antisymétrique, que tout endomorphisme antisymétrique est forcément linéaire, qu’il se représente donc comme une multiplication par une matrice antisymétrique qui peut donc se résumer par un produit vectoriel.

Si le résultat est connu, et que la preuve n’est pas si difficile que cela, au moins a-t-elle le mérite de brasser de l’algèbre linéaire et de la géométrie vectorielle, dont la maitrise peut permettre de faciliter la résolution de quelques exercices ou problèmes.

L’endomorphisme antisymétrique : parce que le grec, les mathématiciens, ils aiment bien ça aussi !

Pour endomorphisme : du grec ancien : éndon (dedans) et morphè (forme).
Pour antisymétrie : Du grec ancien anti (au lieu de, en comparaison de, contre) et du grec ancien par le latin : symmetria, composé de sýn (avec) et métron (mesure).

Un endomorphisme est juste le nom d’une application dans elle-même : on va ainsi créée l’application qui dépend d’un point d’origine arbitraire O et définie par \vec{u_O} : \vec{OA} \rightarrow \vec{u_O}(\vec{OA}) = \left ( \vec{\mathcal{M}}(A) - \vec{\mathcal{M}}(O) \right ). Elle va bien de l’espace vectoriel (des positions de point) à l’espace vectoriel (des différences de moment).

Un endomorphisme \vec{u_O} est dit antisymétrique s’il possède la propriété suivante :

\forall (\vec{x},\vec{y}) \quad \vec{u_O}(\vec{x}).\vec{y} = - \vec{x}.\vec{u_O}(\vec{y})

Pour ceux qui se souviennent de ce qu’est un endomorphisme adjoint, un endomorphisme antisymétrique a son adjoint qui est également son opposé. Mais cela revient juste à la propriété montrée plus haut.

Pour prouver cette simple propriété, on va créer deux points A et B à partir de deux vecteurs quelconques \vec{x} et \vec{y} tel que : \vec{OA} = \vec{x} et \vec{OB} = \vec{y}. Voyons ce que cela nous donne :

\vec{u_O}(\vec{x}).\vec{y} = \vec{u}(\vec{OA}).\vec{OB}\\ \vec{u_O}(\vec{x}).\vec{y} = \left( \vec{M}(A)-\vec{M}(O) \right).\vec{OB}\\ \vec{u_O}(\vec{x}).\vec{y} = \vec{M}(A).\vec{OB} -\vec{M}(O).\vec{OB}

Par bilinéarité du produit scalaire (distributivité de l’addition).

\vec{u_O}(\vec{x}).\vec{y} = \vec{M}(A).\left(\vec{OA} + \vec{AB}\right) -\vec{M}(O).\vec{OB}\\ \vec{u_O}(\vec{x}).\vec{y} = \vec{M}(A).\vec{OA} + \vec{M}(A).\vec{AB} -\vec{M}(O).\vec{OB}

Par la relation de Chasles, puis l’utilisation de la bilinéarité du produit scalaire (distributivité de l’addition).

\vec{u_O}(\vec{x}).\vec{y} = \vec{M}(O).\vec{OA} + \vec{M}(B)\vec{AB} -\vec{M}(B).\vec{OB}

Par l’équiprojectivité du champ des moments.

\vec{u_O}(\vec{x}).\vec{y} = \vec{M}(O).\vec{OA} + \vec{M}(B).\left(\vec{AB}-\vec{OB}\right)\\ \vec{u_O}(\vec{x}).\vec{y} = \vec{M}(O).\vec{OA} - \vec{M}(B).\left(\vec{OB}+\vec{BA}\right)\\ \vec{u_O}(\vec{x}).\vec{y} = \vec{M}(O).\vec{OA} - \vec{M}(B).\vec{OA}

Par bilinéarité du produit scalaire (factorisation), puis utilisation de la relation de Chasles.

\vec{u_O}(\vec{x}).\vec{y} = \left( \vec{M}(O)-\vec{M}(B) \right).\vec{OA}\\ \vec{u_O}(\vec{x}).\vec{y} = -\left( \vec{M}(B)-\vec{M}(O) \right).\vec{OA}\\ \vec{u_O}(\vec{x}).\vec{y} = -\vec{u_O}(\vec{OB}).\vec{OA} \vec{u_O}(\vec{x}).\vec{y} = -\vec{u_O}(\vec{y}).\vec{x}

Par bilinéarité du produit scalaire (factorisation), puis utilisation de la définition de l’endomorphisme \vec{u}(\vec{OB}) et enfin par définition des positions des points A et B.

Notre endomorphisme est donc antisymétrique… Et cela tombe très bien, parce qu’il est alors linéaire, ce qui va nous apporter beaucoup pour la suite.

Linéarité et Chasles : bye-bye l’arbitraire de l’origine

Tout endomorphisme antisymétrique est linéaire. Ceci se prouve assez facilement une fois que l’on se souvient d’une certaine propriété, qui peut sembler évidente mais que l’on va néanmoins prouver ici par souci d’exhaustivité : lorsqu’une relation vectorielle est vraie suivant toutes les projections possibles, alors elle est vraie.

En langage mathématique, on obtient donc le théorème suivant :

\forall \vec{x} \quad \vec{a}.\vec{x} = \vec{b}.\vec{x} \Leftrightarrow \vec{a} = \vec{b} \\

La réciproque est bien sûr trivialement vraie. L’implication peut sembler évidente à beaucoup de monde également, mais en faire une preuve complète en fait un bon exercice pour citer clairement les propriétés du produit scalaire utilisé et permettre de généraliser ce résultat même à des espaces vectoriels infinis. En effet, toutes les preuves précédentes et les deux qui vont suivre sont également valable dans un espace infini.

\forall \vec{x}\quad \vec{a}.\vec{x} = \vec{b}.\vec{x}

On met en facteur en faisant apparaître un zéro en terme de gauche :

(\vec{a}-\vec{b}).\vec{x} =0

En particulier, la propriété est vrai pour \vec{x} = \vec{a}-\vec{b} :
(\vec{a}-\vec{b}).(\vec{a}-\vec{b}) =0

Or le produit scalaire est une forme définie (\vec{u}.\vec{u} = 0 ssi  \vec{u} = \vec{0}), donc :
(\vec{a}-\vec{b}).(\vec{a}-\vec{b}) =0

D’où on déduit forcément :
(\vec{a}-\vec{b}).(\vec{a}-\vec{b}) =0

Autrement dit, si une chose est vraie suivant tous les points de vue, cette chose est vraie. Les philosophes pourraient encore débâtre, les mathématiciens non…

Revenons-en au cœur du problème : tout endomorphisme antisymétrique est linéaire. On sait, par l’antisymétrisme de l’endomorphisme \vec{u_O} :

\forall (\vec{x},\vec{y},\vec{z}) \\ \vec{u_O}(\lambda\vec{x}+\vec{y}).\vec{z} = -\left (\lambda\vec{x}+\vec{y} \right ).\vec{u_O}(\vec{z})

On utilise ensuite la bilinéarité du produit scalaire :

\vec{u_O}(\lambda\vec{x}+\vec{y}).\vec{z} = -\lambda\, \vec{x}.\vec{u_O}(\vec{z}) -\vec{y}.\vec{u_O}(\vec{z})

Et de nouveau par l’antisymétrisme (j’adore ce barbarisme) de l’endomorphisme \vec{u_O} :

\vec{u_O}(\lambda\vec{x}+\vec{y}).\vec{z} = \lambda\, \vec{u_O}(\vec{x}).\vec{z} +\vec{u_O}(\vec{y}).\vec{z} \\ \vec{u_O}(\lambda\vec{x}+\vec{y}).\vec{z} = \left ( \lambda\, \vec{u_O}(\vec{x})+\vec{u_O}(\vec{y}) \right ).\vec{z}

Et cette dernière équation étant vraie quelque-soit \vec{z}, on en conclue par le théorème rapidement présenté en début de paragraphe que :

\vec{u_O}(\lambda\vec{x}+\vec{y}) = \lambda\, \vec{u_O}(\vec{x})+\vec{u_O}(\vec{y})

Autrement dit, l’endomorphisme \vec{u_O} est linéaire.

Et de là tombe ce qui a pu vous sembler comme la pire escroquerie que l’on ne vous ait jamais vendue : l’endomorphisme \vec{u_O} est dépendant du point O, choix complètement arbitraire. Et l’on n’a jamais vu en mécanique la résultante d’un torseur dépendre de l’origine.

Pour l’instant, la définition de l’endomorphisme n’était claire que pour des vecteurs positionnés par rapport à l’origine. Essayons de résoudre maintenant un cas différent avec deux points A et B quelconques :

\vec{u_O}(\vec{AB}) = \vec{u_O}(\vec{OB}-\vec{OA})

Par la relation de Chasles.

\vec{u_O}(\vec{AB}) = \vec{u_O}(\vec{OB})-\vec{u_O}(\vec{AO})

Par la linéarité de l’endomorphisme.

\vec{u_O}(\vec{AB}) = \left ( \vec{\mathcal{M}}(B) - \vec{\mathcal{M}}(O) \right )-\left ( \vec{\mathcal{M}}(A) - \vec{\mathcal{M}}(O) \right )

Par l’endomorphisme défini grâce au moment du point obtenu vecteur position.

Et on a donc la propriété suivante, vraie quelque soit le couple de point A, B :

\vec{u_O}(\vec{AB}) = \vec{\mathcal{M}}(B) - \vec{\mathcal{M}}(A)

On voit alors clairement que cet endomorphisme ne dépend aucunement du point d’origine et que n’importe quel autre point nous aurait donné le même endomorphisme.

Rassurés, nous changeons donc \vec{u_O} en \vec{u} pour fêter cela !

Endomorphisme linéaire et matrice : une histoire d’amour fructueuse

On se limitera pour la suite à un espace vectoriel fini de dimension n. On peut donc définir la matrice A = (a_{i,j}) de l’endomorphisme \vec{u} dans une base orthonormée \mathcal{B} = (\vec{e}_1,...\vec{e}_n).

Les coefficients de cette matrice sont, par définition :

a_{i,j} = \vec{e}_i.\vec{u}(\vec{e}_j)

Or par antisymétrie de l’endomorphisme :

\vec{e}_i.\vec{u}(\vec{e}_j) = - \vec{e}_j.\vec{u}(\vec{e}_i)

Donc, a_{i,j} = - a_{j,i}.

Autrement dit, la matrice A est antisymétrique (A^T = -A).

Dans le cas d’un espace de dimension 3, on écrira pour la suite :

A = \begin{pmatrix} 0 & -c & b \\ c & 0 & -a \\ -b & a & 0 \end{pmatrix}

Pseudovecteur et produit vectoriel…

Soit l’entrée \vec{b} de la fonction exprimée dans la base \mathcal{B} sous la forme d’une matrice colonne :

\vec{b} = \begin{pmatrix} x\\ y\\ z \end{pmatrix}

L’image de l’entrée \vec{b} dans la base \mathcal{B} est donnée par le vecteur colonne calculé comme suit :

\vec{u}(\vec{b}) = \begin{pmatrix} 0 & -c & b \\ c & 0 & -a \\ -b & a & 0 \end{pmatrix} \begin{pmatrix} x\\ y\\ z \end{pmatrix} = \begin{pmatrix} -cy+bz\\ cx-az\\ -bx+ay \end{pmatrix}

Et là, on se rend compte que l’on peut réécrire ce calcul en terme d’un produit vectoriel :

\vec{u}(\vec{b}) = \begin{pmatrix} -cy+bz\\ cx-az\\ -bx+ay \end{pmatrix} = \begin{pmatrix} a\\ b\\ c \end{pmatrix} \wedge \begin{pmatrix} x\\ y\\ z \end{pmatrix}

Le fait que le vecteur résultant apparaissant ici est invariant par changement de base orthonormée directe est assez simple et direct.

Résumons donc ce que nous avons trouvé : soit un champ équiprojectif \vec{\mathcal{M}} dans un espace euclidien de dimension 3 : il existe alors un unique vecteur résultant \vec{R} tel que :

\forall (A,B)   \quad \vec{\mathcal{M}}(B) -\vec{\mathcal{M}}(A) = \vec{R} \wedge \vec{AB}

On a bien prouvé la relation de Varignon pour tous les torseurs définis dans un espace de dimension 3.

Mais on peut remarquer une petite « triche » : quand on passe d’une matrice à un produit vectoriel, il y a toute une notion qui apparaît très importante : celui de l’orientation de la base !

Ainsi apparaît la notion du pseudovecteur (ou vecteur axial) qui est un vecteur dont le sens dépend de l’orientation du trièdre de référence. Comme le vecteur position est toujours un vecteur « vrai » (appelé aussi vecteur polaire), dans un torseur, soit la résultante, soit le moment est un pseudovecteur.

On les reconnaît facilement, c’est ceux que les étudiants ont le plus de mal à comprendre : vecteur vitesse angulaire (résultante du torseur cinématique), moment d’une force (moment du torseur des efforts), moment cinétique et dynamique (moment des torseurs cinétiques et dynamique bien sûr). Et l’on voit par là que le problème que peuvent avoir certains étudiants est peut-être qu’intuitivement, ils ont compris que ce n’était pas tout à fait des vecteurs comme les autres (le signe dépend du sens trigonométrique, forcément choisi arbitrairement, si vous en doutez, regardez vous dans un miroir et faites des moulinets avec les bras).

À noter que ces notions de pseudovecteurs peuvent utilement être réutilisées dans d’autres branches de la physique qui utilise le rotationnel : l’électromagnétisme ou la mécanique des fluides par exemple.

Conclusion

Au départ était la curiosité de répondre à cette question qui traînait dans un coin de ma tête depuis une bonne dizaine d’année : en quoi la relation de Varignon et l’équiprojectivité sont-elles équivalentes.

Au final, j’ai eu le droit à des révisions sur les endomorphismes linéaires et la découverte de nouveaux concepts qui prennent bien plus de sens quand on comprend d’où ils viennent.