Archives de l’auteur : tkovaltchouk

Fonction de transfert d’un système linéaire continu et invariant : pourquoi ?

Dans ce billet, nous allons nous pencher sur le problème de la définition de ce qu’est une fonction de transfert, comment elle apparait naturellement lorsqu’on parle de systèmes linéaires continus invariants et comment elle est accompagnée par le produit de convolution.

Nous n’irons pas dans tous les arcanes mathématiques, mais je vais essayer de ne pas tricher sur le vocabulaire et vous faire sentir les principaux points qui peuvent être problématiques pour un mathématicien.

Comme dans une grande part de la physique, il est toujours bon d’organiser l’espace sur lequel on va travailler.

Espace des fonctions de carré intégrable

Comme on parle de systèmes continus, on va naturellement s’intéresser à des fonctions du temps e(t) et s(t) : l’entrée et la sortie. Ce sont des fonctions de \mathbb{R} dans \mathbb{R}.

Il ne reste plus qu’à trouver un produit scalaire à cet espace ou à un espace y ressemblant.

Le produit scalaire classique somme le produit de toutes les composantes entre elles. Si on s’inspire de cela, on peut considérer qu’une composante est la valeur à un instant donné. On obtient alors relativement facilement cette idée de produit scalaire :

(f,g) = \int_{\mathbb{R}} f(\tau) \, g(\tau) d\tau = \int_{-\infty}^{+\infty} f(\tau) \, g(\tau) d\tau

Premier problème, il faut limiter un peu l’espace pour que le produit scalaire ait un sens : on doit donc se contenter des fonctions de carré intégrable (l’intégrale sur \mathbb{R} converge).

Avec cela de donné, vous devriez facilement prouver qu’il s’agit bien d’une forme bilinéaire symétrique positive. Le problème arrive dès qu’il s’agit de conclure sur le fait que c’est une forme définie. L’ensemble des formes isotropes est en effet l’ensemble des fonctions f_0 tel que :

0 = (f_0,f_0) = \int_{\mathbb{R}} f_0(\tau)^2 d\tau

Et, tout ce qu’on peut conclure alors, c’est que f_0 est nul presque partout sur \mathbb{R} et non pas que f_0 est la fonction nulle (fonction qui a tout antécédent renvoie la valeur 0).

Pour que notre produit scalaire soit défini, il va donc falloir changer un petit peu notre espace : le zéro devra correspondre à l’ensemble des fonction f dont la mesure est nulle (mesure définie avec notre produit scalaire), que l’on appellera classe d’égalité, car elles ont même mesure. Ce choix de vocabulaire est intéressant pour un physicien : les fonctions d’une classe d’égalité ne peuvent pas être distinguées, car la mesure de la différence entre elles est nulle.

C’est ainsi que nous allons pouvoir (presque) travailler dans l’espace des fonctions de carré sommable L^2(\mathbb{R}) défini comme étant l’ensemble des classes d’égalité de fonctions mesurables définies presque partout sur \mathbb{R} et à valeur dans \mathbb{R} telles que leur carré soit Lebesgue-intégrable sur \mathbb{R}.

Cette histoire de Lebesgue-intégrabilité est juste une précision de mathématicien afin de garantir un certain nombre de propriétés sympathiques sur lesquelles nous ne nous pencherons pas ici.

À la recherche d’une base

Le mieux maintenant pour continuer de travailler est de trouver une base : et le problème est important : si on repense à comment à était créé le produit scalaire que l’on utilise, on a utilisé la notion implicite que la valeur en un instant de notre fonction est comme une composante.

Il nous faudrait donc une fonction :

  • nulle presque partout, sauf en un instant t_0,
  • mais de mesure non nulle.

En fait, l’idéal serait une fonction \delta_{t_0} tel que :

\int_{\mathcal{I}} \delta_{t_0}(\tau)^2 d\tau = \left \lbrace \begin{matrix} 0 \quad \text{si} \quad t_0 \notin \mathcal{I} \\ 1 \quad \text{si} \quad t_0 \in \mathcal{I} \end{matrix} \right .

Vous aurez beau vous creuser la tête : il est complètement impossible de fabriquer cette fonction… donc on va la créer et ne pas l’appeler fonction, mais distribution. Je vous présente donc la distribution de Dirac \delta tel que :

\int_{\mathcal{I}} \delta(\tau-t_0) d\tau = \left \lbrace \begin{matrix} 0 \quad \text{si} \quad t_0 \notin \mathcal{I} \\ 1 \quad \text{si} \quad t_0 \in \mathcal{I} \end{matrix} \right .

Il s’agit d’une abstraction très proche de ce qui peut être utilisé en mécanique (masse ponctuelle), en électromagnétisme (charge ponctuelle) ou en probabilité (probabilité d’une valeur donnée contrairement à une densité de probabilité sur un intervalle).

Ici, on parlera assez naturellement d’une impulsion : un signal infiniment court, mais contenant une certaine énergie.

Je pourrais essayer de vous donner toutes les images possibles, mais le fait est qu’il s’agit juste de la base la plus naturelle du monde pour notre espace vectoriel. On aura en effet :

f(t) = (f,\delta_{t}) = \int_{\mathbb{R}} f(\tau) \, \delta(t-\tau) d\tau

Pour chaque instant t, on a donc un vecteur de la base qui permet la projection d’une fonction afin d’obtenir la valeur en ce point.

Vous pouvez relativement facilement vous convaincre qu’il s’agit d’une famille orthonormée, donc libre.

Pour le côté génératrice, il suffit de décomposer une fonction f suivant cette base, et on obtient donc :

f(t) = \int_{\mathbb{R}} (f,\delta_{\tau}) \, \delta_{\tau}(t) d\tau

Que l’on peut réécrire bien sûr comme étant :

f(t) = \int_{\mathbb{R}} f(t) \, \delta(t-\tau) d\tau

Cette expression est donc à la fois la représentation du produit scalaire par un vecteur unitaire de la base (lorsqu’on considère f(t) comme un scalaire), mais aussi la représentation d’un vecteur dans sa base (lorsqu’on considère f(t) comme un vecteur).

Linéarité et invariance : apparition du produit de convolution et de la fonction de transfert

Soit un processus linéaire et invariant noté u qui, à une entrée e(t) associe une sortie s(t).

Si on décompose e(t) dans la base décrite plus haut, on obtient :

e(t) =  \int_{\mathbb{R}} (e,\delta_{\tau}) \, \delta(t-\tau) d\tau

On a, par définition de e(t), s(t) et u(t) :

s(t) = u(e(t)) =  u \left ( \int_{\mathbb{R}} (e,\delta_{\tau}) \, \delta(t-\tau) d\tau \right )

Par linéarité, on a donc :

s(t) = \int_{\mathbb{R}} (e,\delta_{\tau}) \, u \left (\delta(t-\tau) \right ) d\tau 

On a l’invariance aussi à utiliser : elle nous dit que le processus ne varie pas de comportement par décalage temporel, ce qu’on peut écrire :

\text{si} \quad s(t) = u(e(t)) \quad \text{alors} \quad \forall d \in \mathbb{R} \quad s(t+d) = u(e(t+d))

En particulier, si on note h(t) = u(\delta(t)) la réponse du processus à une impulsion, alors on a :

\forall \tau \in \mathbb{R} \quad s(t-\tau) = u(\delta(t-\tau))

Donc, par invariance, on obtient donc :

s(t) = \int_{\mathbb{R}} (e,\delta_{\tau}) \, h(t-\tau) d\tau 

Si on remplace le produit scalaire par sa valeur, on obtient donc :

s(t) = \int_{\mathbb{R}} e(\tau) \, h(t-\tau) d\tau 

Cette opération est appelée produit de convolution, noté comme suite :

s(t) = (e*h) = \int_{\mathbb{R}} e(\tau) \, h(t-\tau) d\tau 

Et h(t), en plus d’être la réponse à une impulsion unitaire du système, cette fonction est également appelée fonction de transfert du processus.

Nous venons de prouver que toute sortie d’un système continu et invariant pouvait donc s’écrire comme le produit de convolution de son entrée et de sa fonction de transfert.

Pour des raisons que je ne détaillerais pas ici, cette relation est aussi valable si e et h n’appartiennent pas à L^2(\mathbb{R}) (ou plutôt la généralisation de L^2(\mathbb{R}) contenant également les distributions).

Transformée de Laplace

La transformée de Laplace permet de passer à l’espace temporel de variable t à l’espace de Laplace L de variable p par la transformation suivante :

F(p) = \mathcal{L} \lbrace f(t) \rbrace = \int_{\mathbb{R}} e^{-pt} \, f(t) dt

Et malgré tout ce qu’on peut penser, la transformation la plus importante est sans doute celle du produit de convolution :

\mathcal{L} \lbrace e*h \rbrace = \int_{\mathbb{R}} e^{-pt} \, \int_{\mathbb{R}} e(\tau) \, h(t-\tau) d\tau dt

Par le théorème de Fubini, on passe alors à :

\mathcal{L} \lbrace e*h \rbrace = \int_{\mathbb{R}}  \int_{\mathbb{R}} e^{-pt} e(\tau) \, h(t-\tau)  dt d\tau

On remplace alors :

e^{-pt} = e^{-pt + p\tau - p\tau} = e^{-p(t - \tau) - p\tau} = e^{-p(t - \tau)} e^{- p\tau}

Cela nous donne donc en réorganisant les termes :

\mathcal{L} \lbrace e*h \rbrace = \int_{\mathbb{R}}  \int_{\mathbb{R}} e^{- p\tau} e(\tau) \, e^{-p(t - \tau)} h(t-\tau)  dt d\tau

On fait le changement de variable $t’ = t – \tau$ et on fait sortir les termes constants (ne dépendant pas de t’) :

\mathcal{L} \lbrace e*h \rbrace = \int_{\mathbb{R}}  e^{- p\tau} e(\tau) \int_{\mathbb{R}} e^{-pt'} h(t')  dt' d\tau

On reconnait alors une première transformée de Laplace :

\mathcal{L} \lbrace e*h \rbrace = \int_{\mathbb{R}}  e^{- p\tau} e(\tau) \mathcal{L} \lbrace h \rbrace d\tau

Or, la transformée de Laplace est une fonction de p indépendant de \tau, on obtient donc :

\mathcal{L} \lbrace e*h \rbrace = \mathcal{L} \lbrace h \rbrace \int_{\mathbb{R}} e^{- p\tau} e(\tau)  d\tau

On reconnait alors une seconde transformée de Laplace :

\mathcal{L} \lbrace e*h \rbrace = \mathcal{L} \lbrace h \rbrace \times \mathcal{L} \lbrace e \rbrace

Ou dans la présentation classique que l’on peut donner aux étudiants. Lorsque l’on a un processus linéaire invariant d’entrée e(t) (de transformation de Laplace E(p)) et de sortie s(t) (de transformation de Laplace S(p)), alors il existe une fonction de transfert H(p) tel que :

S(p) =H(p) E(p)

On est passé de produit de convolution à des produits plus conventionnels ce qui apparait plus pratique sans nul doute.

Mais dans le travail demandé, on ne passe presque jamais par les produits de convolution, mais très souvent par des équations différentielles. Ce sera l’occasion de voir d’où viennent un certain nombre de propriétés de la transformée de Laplace et leur utilisation en rapport notamment avec la causalité.

Triomphe de Babar (2) : Preuve de Varignon sans algèbre

Si, dans le billet précédent, la preuve de l’équivalence entre champ vectoriel équiprojectif et relation de Varignon vous a été donnée, cette dernière fait intervenir une bonne part d’algèbre.

Je vais essayer de vous proposer ici une preuve ne faisant intervenir que des concepts de géométrie vectorielle et on pourra en profiter pour voir une méthode pour prouver des relations vectorielles.

Tourne le produit mixte

Le produit mixte est invariant par permutation circulaire, on peut réécrire cette propriété comme suis :

\forall \vec{a},\vec{b},\vec{c} \quad \left ( \vec{a} \wedge \vec{b}  \right ) . \vec{c} = \left ( \vec{c} \wedge \vec{a}  \right ).\vec{b} = \left (\vec{b} \wedge \vec{c}  \right ).\vec{a}

Remarquons qu’il suffit de prouver la première égalité pour prouver immédiatement la seconde.

Remarquons que si l’on décompose chaque vecteur dans une base orthonormée, il suffit que la relation soit vraie pour tous les triplet de la base pour qu’elle soit vraie pour tous les vecteurs de l’espace.

Alors, si, à priori, la preuve pourrait sembler complexe, ce n’est plus le cas : elle est, au pire, un petit peu fastidieuse : trois triplets avec trois choix pour chacun représentent 3^3 = 27 cas à traiter. Dans l’idéal, une représentation en cube aurait été parfaite, mais cette dernière est difficilement possible sur le papier.

Nous allons donc nous contenter de trois tableaux 3×3. Voici d’abord ceux de \left ( \vec{a} \wedge \vec{b} \right ) . \vec{c}

\vec{c} = \vec{x}\\ \begin{array}{|c|c|c|c|} \hline \vec{a} \backslash \vec{b} & \vec{x} &  \vec{y} &  \vec{z}\\ \hline \vec{x} & \vec{0}.\vec{x}=0 &  \vec{z}.\vec{x}=0 &  -\vec{y}.\vec{x}=0\\ \hline \vec{y} & -\vec{z}.\vec{x}=0 &  \vec{0}.\vec{x}=0 &  \vec{x}.\vec{x}=1\\ \hline \vec{z} & \vec{y}.\vec{x}=0 &  -\vec{x}.\vec{x}=-1 &  \vec{0}.\vec{x}=0\\ \hline \end{array}

\vec{c} = \vec{y}\\ \begin{array}{|c|c|c|c|} \hline \vec{a} \backslash \vec{b} & \vec{x} &  \vec{y} &  \vec{z}\\ \hline \vec{x} & \vec{0}.\vec{y}=0 &  \vec{z}.\vec{y}=0 &  -\vec{y}.\vec{y}=-1\\ \hline \vec{y} & -\vec{z}.\vec{y}=0 &  \vec{0}.\vec{y}=0 &  \vec{x}.\vec{y}=0\\ \hline \vec{z} & \vec{y}.\vec{y}=1 &  -\vec{x}.\vec{y}=0 &  \vec{0}.\vec{y}=0\\ \hline \end{array}

\vec{c} = \vec{z}\\ \begin{array}{|c|c|c|c|} \hline \vec{a} \backslash \vec{b} & \vec{x} &  \vec{y} &  \vec{z}\\ \hline \vec{x} & \vec{0}.\vec{z}=0 &  \vec{z}.\vec{z}=1 &  -\vec{y}.\vec{z}=0\\ \hline \vec{y} & -\vec{z}.\vec{z}=-1 &  \vec{0}.\vec{z}=0 &  \vec{x}.\vec{z}=0\\ \hline \vec{z} & \vec{y}.\vec{z}=0 &  -\vec{x}.\vec{z}=0 &  \vec{0}.\vec{z}=0\\ \hline \end{array}

Nous allons donc pouvoir les comparer aux tableaux obtenus avec \left ( \vec{c} \wedge \vec{a}  \right ).\vec{b} :

\vec{c} = \vec{x}\\ \begin{array}{|c|c|c|c|} \hline \vec{a} \backslash \vec{b} & \vec{x} &  \vec{y} &  \vec{z}\\ \hline \vec{x} & \vec{0}.\vec{x}=0 &  \vec{0}.\vec{y}=0 &  -\vec{0}.\vec{z}=0\\ \hline \vec{y} & \vec{z}.\vec{x}=0 &  \vec{z}.\vec{y}=0 &  \vec{z}.\vec{z}=1\\ \hline \vec{z} & -\vec{y}.\vec{x}=0 &  -\vec{y}.\vec{y}=-1 &  -\vec{y}.\vec{z}=0\\ \hline \end{array}

\vec{c} = \vec{y}\\ \begin{array}{|c|c|c|c|} \hline \vec{a} \backslash \vec{b} & \vec{x} &  \vec{y} &  \vec{z}\\ \hline \vec{x} & -\vec{z}.\vec{x}=0 &  -\vec{z}.\vec{y}=0 &  -\vec{z}.\vec{z}=-1\\ \hline \vec{y} & \vec{0}.\vec{x}=0 &  \vec{0}.\vec{y}=0 &  \vec{0}.\vec{z}=0\\ \hline \vec{z} & \vec{x}.\vec{x}=1 &  \vec{x}.\vec{y}=0 &  \vec{x}.\vec{z}=0\\ \hline \end{array}

\vec{c} = \vec{z}\\ \begin{array}{|c|c|c|c|} \hline \vec{a} \backslash \vec{b} & \vec{x} &  \vec{y} &  \vec{z}\\ \hline \vec{x} & \vec{y}.\vec{x}=0 &  \vec{y}.\vec{y}=1 &  \vec{y}.\vec{z}=0\\ \hline \vec{y} & -\vec{x}.\vec{x}=-1 &  -\vec{x}.\vec{y}=0 &  -\vec{x}.\vec{z}=0\\ \hline \vec{z} & \vec{0}.\vec{x}=0 &  \vec{0}.\vec{y}=0 &  \vec{0}.\vec{z}=0\\ \hline \end{array}

Le résultat est identique dans les 27 cas, donc la formule est vraie dans le cas général.

On peut noter plusieurs remarques :

  • on aurait pu aisément faire seulement 3 tableaux pour ne représenter que la différence entre le terme de gauche par le terme de droite et constater qu’il est nul pour tous les triplets ;
  • dans ce cas particulier, on peut constater que beaucoup de cas sont nuls trivialement (le produit vectoriel d’un vecteur par lui-même est nul, et le produit vectoriel est orthogonal a ses deux antécédents) : seuls les cas où \vec{a}, \vec{b} et \vec{c} sont différents présentent un résultat non trivial : cela représente seulement 3! = 6 cas ;
  • on peut construire une base ad hoc pour se simplifier les choses et limiter le nombre de cas à étudier : si \vec{a}/\left \Vert \vec{a} \right \Vert est considérée comme le premier élément de la base orthonormée considérée. On peut de la même façon considérer que la deuxième vecteur peut être représenté uniquement grâce aux deux premiers vecteurs de la base grâce au choix du deuxième vecteur de la base (voir la suite).

Preuve du double produit

Prouvons maintenant la formule du double produit vectoriel ainsi :

\left ( \vec{a} \wedge \vec{b} \right ) \wedge \vec{c} = \left (\vec{a}.\vec{c} \right ) \vec{b}- \left (\vec{b}.\vec{c} \right )\vec{a}

La définition de la base se fera ainsi :

  • Dans le cas où \vec{a} et \vec{b} ne sont pas colinéaire, on travaillera dans la base suivante :
    \mathcal{B} = \left ( \vec{x} = \dfrac{\vec{a}}{\left \Vert \vec{a} \right \Vert}, \vec{y} = \dfrac{\vec{b}-(\vec{b}.\vec{x})\vec{x}}{\left \Vert \vec{b}-(\vec{b}.\vec{x})\vec{x} \right \Vert}, \vec{z}=\vec{x}\wedge \vec{y} \right )
  • Si \vec{a} et \vec{b} sont colinéaires et \vec{a} \neq \vec{0}, on travaillera dans n’importe quelle base commençant par le vecteur \vec{x} défini de la même façon.
  • Dans le cas où \vec{a} = \vec{0} et \vec{b} \neq \vec{0}, on définit \vec{y}=\vec{b}/\left \Vert \vec{b} \right \Vert et les deux autres vecteurs de façon quelconque.
  • Si \vec{a} et \vec{b} sont nuls, alors n’importe quelle base convient.

Le but de cette construction est de faire en sorte que, dans tous les cas, le vecteur \vec{a} est porté par \vec{x}, et le vecteur \vec{b} est porté par \vec{x} et \vec{y} et \vec{c} est quelconque. La construction est unpetit peu fastidieuse, mais c’est parce qu’elle demande de prendre en compte les cas particuliers.

Mais, grâce à elle, on se retrouve donc avec seulement 6 cas à étudier au lieu de 27.

Voici d’abord le résultat pour le membre de gauche \left ( \vec{a} \wedge \vec{b} \right ) \wedge \vec{c} :

\vec{a} = \vec{x}\\ \begin{array}{|c|c|c|c|} \hline \vec{b} \backslash \vec{c} & \vec{x} &  \vec{y} &  \vec{z}\\ \hline \vec{x} & \vec{0}\wedge\vec{x}=\vec{0} &  \vec{0}\wedge\vec{y}=\vec{0} &  \vec{0}\wedge\vec{z}=\vec{0} \\ \hline \vec{y} & \vec{z}\wedge\vec{x}=\vec{y} &  \vec{z}\wedge\vec{y}=-\vec{x} &  \vec{z}\wedge\vec{z}=\vec{0} \\ \hline \end{array}

Et voici le résultat pour le membre de droite \left (\vec{a}.\vec{c} \right ) \vec{b}- \left (\vec{b}.\vec{c} \right )\vec{a} :

\vec{a} = \vec{x}\\ \begin{array}{|c|c|c|c|} \hline \vec{b} \backslash \vec{c} & \vec{x} &  \vec{y} &  \vec{z}\\ \hline \vec{x} & 1\vec{x}-1\vec{x}=\vec{0} & 0\vec{x}-0\vec{x}=\vec{0} &  0\vec{x}-0\vec{x}=\vec{0} \\ \hline \vec{y} & 1\vec{y}-0\vec{x}=\vec{y} &  0\vec{y}-1\vec{x}=-\vec{x} &  0\vec{y}-0\vec{x}=\vec{0} \\ \hline \end{array}

Les résultats des deux tableaux correspondent, donc on a prouvé notre relation dans une base particulière, donc dans toutes les bases.

Ce n’est surement pas la preuve la plus élégante, mais elle possède un atout que je trouve redoutable : elle permet de vérifier une formule vectorielle floue en moins d’une minute sur un brouillon.

L’orthogonalité vue comme conséquence d’un produit vectoriel

On se pose une équation d’orthogonalité de vecteur tel que :

\vec{a}.\vec{b} = 0

On veut prouver alors que cela implique qu’il existe une famille de vecteur \vec{c} + \lambda \vec{b} tel que :

\vec{c}.\vec{b} = 0 \\ \vec{a} = \left ( \vec{c} + \lambda \vec{b} \right ) \wedge \vec{b}

Le fait que l’ajout du vecteur \lambda \vec{b} ne change rien au résultat est assez évident. L’une des manières de construire cette démonstration est de trouver un vecteur \vec{c} qui convienne.

On propose par exemple, tant que \vec{b} \neq \vec{0}  :

\vec{c} = \dfrac{\vec{b} \wedge \vec{a}}{\vec{b}.\vec{b}}

Vérifions que l’on retrouve bien le bon résultat en utilisant la formule du double produit vectoriel :

\vec{c} \wedge \vec{b} = \dfrac{\vec{b} \wedge \vec{a}}{\vec{b}.\vec{b}} \wedge \vec{b} = \dfrac{(\vec{b}.\vec{b})\vec{a}-(\vec{b}.\vec{a})\vec{b}}{\vec{b}.\vec{b}} = \vec{a}

Dans le cas où \vec{b} = \vec{0}, il suffit de prendre : \vec{c} = \vec{0} par exemple, bien que dans ce cas-là, toutes les résultantes soient possibles.

Il est donc toujours possible de construire une relation de produit vectoriel à partir d’une orthogonalité.

Propriété fondamentale de la fonction différence des moments

Soit une base orthonormée \left ( \vec{i},\vec{j},\vec{k} \right ), une origine O et un champ équiprojectif de moment \mathcal{M}(M).

On pose la fonction \vec{u_O}(M) =\mathcal{M}(M)-\mathcal{M}(0) qui, à tout point de l’espace, associe la différence du moment en ce point par le moment à l’origine O.

Par la relation d’équiprojectivité, on obtient rapidement que :

\vec{u_O}(M).\vec{OM} = 0

Il existe donc une famille de vecteur \vec{R}_O(M) + \lambda \vec{OM} tel que :

\vec{u_O}(M)= (\vec{R}_O(M) + \lambda \vec{OM}) \wedge \vec{OM}

De même pour le point N quelconque aussi : il existe une famille de vecteur \vec{R}_O(N) + \mu \vec{ON} tel que :

\vec{u_O}(N)= (\vec{R}_O(N) + \mu \vec{ON}) \wedge \vec{ON}

Si on soustrait les deux relations précédentes, on obtient donc :

\vec{u_O}(M) - \vec{u_O}(N) = (\vec{R}_O(M) + \lambda \vec{OM}) \wedge \vec{OM} - (\vec{R}_O(N) + \mu \vec{ON}) \wedge \vec{ON}

En repassant par la définition de la fonction \vec{u_O}(M) et en utilisant la propriété d’équiprojectivité du champ des moments, lorsqu’on projette cette équation sur \vec{MN}, on obtient :

0 = \left ( (\vec{R}_O(M) + \lambda \vec{OM}) \wedge \vec{OM} \right ). \vec{MN}- \left ( (\vec{R}_O(N) + \mu \vec{ON}) \wedge \vec{ON}\right ). \vec{MN}

En utilisant l’invariance du produit mixte par permutation circulaire, on obtient :

0 = \left ( \vec{OM} \wedge \vec{MN} \right ) . \left ( \vec{R}_O(M) + \lambda \vec{OM} \right ) - \left ( \vec{ON} \wedge \vec{MN} \right ) . \left (\vec{R}_O(N) + \mu \vec{ON} \right )

Or, on peut réécrire le premier produit vectoriel :

\vec{OM} \wedge \vec{MN} =\vec{OM} \wedge \vec{MN}+\vec{OM} \wedge \vec{OM} = \vec{OM} \wedge \left( \vec{OM}  +\vec{MN} \right) = \vec{OM} \wedge \vec{ON}

De même pour le deuxième produit vectoriel :

\vec{ON} \wedge \vec{MN} = \vec{ON} \wedge \left( \vec{MN}  +\vec{NO} \right) = \vec{ON} \wedge \vec{MO}= \vec{OM} \wedge \vec{ON}

On obtient pour tout point M et N la relation suivante :

\left ( \vec{OM} \wedge \vec{ON} \right ) . \left ( \vec{R}_O(M) + \lambda \vec{OM} - \vec{R}_O(N) - \mu \vec{ON} \right ) = 0

C’est cette relation qui sera surtout utilisée par la suite.

Preuve sur 3 points particuliers du repère

Soient les trois points I, J et K définis par :

\vec{OI} = \vec{i}, \quad \vec{OJ} = \vec{j}, \quad \vec{OK} = \vec{k}

Si on remplace le couple M et N par I et J, puis par J et K et enfin par K et I, on obtient les trois relations suivantes :

\left ( \vec{OI} \wedge \vec{OJ} \right ) . \left ( \vec{R}_O(I) + \lambda \vec{OI} - \vec{R}_O(J) - \mu \vec{OJ} \right ) = 0 \\ \left ( \vec{OJ} \wedge \vec{OK} \right ) . \left ( \vec{R}_O(J) + \lambda \vec{OJ} - \vec{R}_O(K) - \mu \vec{OK} \right ) = 0 \\ \left ( \vec{OK} \wedge \vec{OI} \right ) . \left ( \vec{R}_O(K) + \lambda \vec{OK} - \vec{R}_O(I) - \mu \vec{OI} \right ) = 0

Que l’on peut simplement réécrire :

\left ( \vec{R}_O(I) + \lambda \vec{i} \right ). \vec{k} = \left ( \vec{R}_O(J) + \mu \vec{j} \right ). \vec{k} \\ \left ( \vec{R}_O(J) + \mu \vec{j} \right ). \vec{i} = \left ( \vec{R}_O(K) + \nu \vec{k} \right ). \vec{i} \\ \left ( \vec{R}_O(K) + \nu \vec{k} \right ). \vec{j} = \left ( \vec{R}_O(I) + \lambda \vec{i} \right ). \vec{j}

Si on choisit correctement les valeurs de \lambda, \mu, \nu, on obtient un vecteur qui appartient aux trois familles de vecteurs en même temps :

\lambda= \vec{R}_O(J). \vec{i} = \vec{R}_O(K). \vec{i} \\ \mu = \vec{R}_O(K). \vec{j} = \vec{R}_O(I). \vec{j} \\ \nu = \vec{R}_O(I). \vec{k} = \vec{R}_O(J). \vec{k}

Et on a donc un vecteur unique \vec{R}_O(\mathcal{B}) tel que :

\vec{u_O}(I)= \vec{R}_O(\mathcal{B}) \wedge \vec{OI} \\ \vec{u_O}(J)= \vec{R}_O(\mathcal{B}) \wedge \vec{OJ} \\ \vec{u_O}(K)= \vec{R}_O(\mathcal{B}) \wedge \vec{OK}

Il ne reste donc plus qu’à prouver que ceci est vrai pour n’importe quel point M.

Généralisation pour tous les points

Pour un point M  d’abscisse x, d’ordonnée y et de cote z, on obtient en remplaçant le couple M et N par M et I, puis par M et J et enfin par M et K :

\left ( \vec{OM} \wedge \vec{OI} \right ) . \left ( \vec{R}_O(M) + \lambda \vec{OM} - \vec{R}_O(\mathcal{B}) \right ) = 0 \\ \left ( \vec{OM} \wedge \vec{OJ} \right ) . \left ( \vec{R}_O(M) + \lambda \vec{OM} - \vec{R}_O(\mathcal{B}) \right ) = 0 \\ \left ( \vec{OM} \wedge \vec{OK} \right ) . \left ( \vec{R}_O(M) + \lambda \vec{OM} - \vec{R}_O(\mathcal{B}) \right ) = 0

Par invariance du produit mixte par permutation circulaire, on obtient donc :

\left ( \left ( \vec{R}_O(M) + \lambda \vec{OM} - \vec{R}_O(\mathcal{B}) \right ) \wedge \vec{OM} \right ) . \vec{OI} = 0 \\ \left ( \left ( \vec{R}_O(M) + \lambda \vec{OM} - \vec{R}_O(\mathcal{B}) \right ) \wedge \vec{OM} \right ) . \vec{OJ} = 0 \\ \left ( \left ( \vec{R}_O(M) + \lambda \vec{OM} - \vec{R}_O(\mathcal{B}) \right ) \wedge \vec{OM} \ \right ) . \vec{OK} = 0

On retrouve une relation vectorielle projetée sur tous les vecteurs de la base, ce qui prouve donc que :

\left ( \vec{R}_O(M) + \lambda \vec{OM} - \vec{R}_O(\mathcal{B}) \right ) \wedge \vec{OM}= \vec{0}

Donc \left ( \vec{R}_O(M) + \lambda \vec{OM} - \vec{R}_O(\mathcal{B}) \right ) et \vec{OM} sont colinéaires. Que l’on peut réécrire par le fait qu’il existe un réel k tel que :

\vec{R}_O(M) + \lambda \vec{OM} - \vec{R}_O(\mathcal{B}) = k \vec{OM}

Pour \lambda =k, on obtient bien que \vec{R}_O(\mathcal{B}) fait partie de la famille qui permet le calcul de la fonction \vec{u_O}(M).

Indépendance de l’origine

On a donc bien obtenu que pour n’importe quel point M, il existe un unique vecteur \vec{R}_O tel que :

\vec{u_O}(M) =\mathcal{M}(M)-\mathcal{M}(0) = \vec{R}_O \wedge \vec{OM}

Donc cela est aussi vrai pour le point N quelconque aussi :

\vec{u_O}(N) =\mathcal{M}(N)-\mathcal{M}(0) = \vec{R}_O \wedge \vec{ON}

Si l’on soustrait ces deux relations, on obtient alors :

\mathcal{M}(M)-\mathcal{M}(N) = \vec{R}_O \wedge \vec{MN}

On voit que le point origine n’intervient plus : la résultante est indépendante de ce point arbitraire, et on peut la renomer simplement \vec{R} tel que, quels que soient deux points M et N :

\mathcal{M}(M)-\mathcal{M}(N) = \vec{R} \wedge \vec{MN}

Le triomphe de Babar ou la preuve de Varignon

Toutes les personnes ayant subi un cours classique de mécanique en France connaissent cet outil qu’est le torseur… Mais le connait-on si bien que cela ?

Ce petit billet est juste là pour rappeler quelques propriétés et mettre en place quelques preuves qui sont souvent très vite passées sous silence, soit par manque d’intérêt pratique, soit par manque de fondement mathématique chez les étudiants.

Définition d’un torseur

Un torseur est un champ vectoriel équiprojectif. Je sais, cela commence fort… mais qu’est-ce que cela signifie ? Un champ vectoriel est juste une fonction qui associe un vecteur à chaque point d’un espace. Ainsi, l’accélération de la pesanteur est un champ vectoriel : en chaque point de l’espace, on peut y associer une norme et une direction. Dans le cas d’un torseur, on parlera de moment en un point.

La propriété d’équiprojectivité oblige à se tourner vers la notion d’espace vectoriel euclidien, c’est-à-dire un espace muni d’un produit scalaire, c’est-à-dire une forme bilinéaire (linéaire suivant chacune de ses deux entrées), symétrique (\vec{u}.\vec{v} = \vec{v}.\vec{u} ), définie (\vec{u}.\vec{u} = 0 ssi  \vec{u} = \vec{0}) et positive (\vec{u}.\vec{u} \geq 0).

Parmi les propriétés fondamentales du produit scalaire, l’une des plus importantes est la projection, qui permet de passer d’une équation vectorielle à une version scalaire ne représentant que ce qui se passe  suivant une direction particulière.

L’équiprojectivité : le latin pour les nuls

Du latin aequus (égal), et projicio (jeter en avant, projacio). Il s’agit donc d’une projection identique de notre champ vectoriel.

La propriété d’équiprojectivité consiste en effet à avoir, pour deux points différents A et B, les moments correspondants (\vec{\mathcal{M}}(A) et \vec{\mathcal{M}}(B)) qui ont la même projection. Mais la question subsiste, suivant quelle direction ? La réponse est la plus simple possible : suivant la direction créée par les deux points pris au hasard.

On peut donc réécrire la propriété fondamentale d’un champ équiprojectif comme étant :
\forall (A,B) \quad\vec{\mathcal{M}}(B).\vec{AB} = \vec{\mathcal{M}}(A).\vec{AB}

Mais on sait tous que cette relation est presque anecdotique devant une relation bien plus importante, connue sous le nom civil de relation de Varignon, ou par son nom de scène : formule BABAR :
\forall (A,B) \exists! \vec{R} \quad | \quad \vec{\mathcal{M}}(B) = \vec{\mathcal{M}}(A) + \vec{BA} \wedge \vec{R}

Ce vecteur \vec{R} est appelé résultante. Et, croyez-le ou non, ces deux formulations sont exactement équivalentes (dans un espace de dimension 3). Le fait de prouver qu’un champ vectoriel répondant à la formule de Varignon est bien équiprojectif est presque trivial : si on projette Varignon sur \vec{AB}, on obtient :
\forall (A,B) \quad \vec{\mathcal{M}}(B).\vec{AB} = \vec{\mathcal{M}}(A).\vec{AB} + \vec{BA} \wedge \vec{R}.\vec{AB} = \vec{\mathcal{M}}(A).\vec{AB}

Deux façons possibles, par exemple, pour se convaincre que la deuxième moitié du terme de droite est nulle :

  • le produit scalaire de deux termes orthogonaux est toujours nul et le résultat d’un produit vectoriel est orthogonal à ses deux termes ;
  • le produit mixte résultant a ses trois termes trivialement coplanaires (le volume du parallélépipède engendré par ces trois vecteurs est donc nul).

Nous allons garder le reste du billet pour montrer que la réciproque est vraie : pour cela, nous allons montrer que la fonction \vec{u} : \vec{AB} \rightarrow \vec{u}(\vec{AB}) = \left ( \vec{\mathcal{M}}(B) - \vec{\mathcal{M}}(A) \right ) est un endomorphisme antisymétrique, que tout endomorphisme antisymétrique est forcément linéaire, qu’il se représente donc comme une multiplication par une matrice antisymétrique qui peut donc se résumer par un produit vectoriel.

Si le résultat est connu, et que la preuve n’est pas si difficile que cela, au moins a-t-elle le mérite de brasser de l’algèbre linéaire et de la géométrie vectorielle, dont la maitrise peut permettre de faciliter la résolution de quelques exercices ou problèmes.

L’endomorphisme antisymétrique : parce que le grec, les mathématiciens, ils aiment bien ça aussi !

Pour endomorphisme : du grec ancien : éndon (dedans) et morphè (forme).
Pour antisymétrie : Du grec ancien anti (au lieu de, en comparaison de, contre) et du grec ancien par le latin : symmetria, composé de sýn (avec) et métron (mesure).

Un endomorphisme est juste le nom d’une application dans elle-même : on va ainsi créée l’application qui dépend d’un point d’origine arbitraire O et définie par \vec{u_O} : \vec{OA} \rightarrow \vec{u_O}(\vec{OA}) = \left ( \vec{\mathcal{M}}(A) - \vec{\mathcal{M}}(O) \right ). Elle va bien de l’espace vectoriel (des positions de point) à l’espace vectoriel (des différences de moment).

Un endomorphisme \vec{u_O} est dit antisymétrique s’il possède la propriété suivante :

\forall (\vec{x},\vec{y}) \quad \vec{u_O}(\vec{x}).\vec{y} = - \vec{x}.\vec{u_O}(\vec{y})

Pour ceux qui se souviennent de ce qu’est un endomorphisme adjoint, un endomorphisme antisymétrique a son adjoint qui est également son opposé. Mais cela revient juste à la propriété montrée plus haut.

Pour prouver cette simple propriété, on va créer deux points A et B à partir de deux vecteurs quelconques \vec{x} et \vec{y} tel que : \vec{OA} = \vec{x} et \vec{OB} = \vec{y}. Voyons ce que cela nous donne :

\vec{u_O}(\vec{x}).\vec{y} = \vec{u}(\vec{OA}).\vec{OB}\\ \vec{u_O}(\vec{x}).\vec{y} = \left( \vec{M}(A)-\vec{M}(O) \right).\vec{OB}\\ \vec{u_O}(\vec{x}).\vec{y} = \vec{M}(A).\vec{OB} -\vec{M}(O).\vec{OB}

Par bilinéarité du produit scalaire (distributivité de l’addition).

\vec{u_O}(\vec{x}).\vec{y} = \vec{M}(A).\left(\vec{OA} + \vec{AB}\right) -\vec{M}(O).\vec{OB}\\ \vec{u_O}(\vec{x}).\vec{y} = \vec{M}(A).\vec{OA} + \vec{M}(A).\vec{AB} -\vec{M}(O).\vec{OB}

Par la relation de Chasles, puis l’utilisation de la bilinéarité du produit scalaire (distributivité de l’addition).

\vec{u_O}(\vec{x}).\vec{y} = \vec{M}(O).\vec{OA} + \vec{M}(B)\vec{AB} -\vec{M}(B).\vec{OB}

Par l’équiprojectivité du champ des moments.

\vec{u_O}(\vec{x}).\vec{y} = \vec{M}(O).\vec{OA} + \vec{M}(B).\left(\vec{AB}-\vec{OB}\right)\\ \vec{u_O}(\vec{x}).\vec{y} = \vec{M}(O).\vec{OA} - \vec{M}(B).\left(\vec{OB}+\vec{BA}\right)\\ \vec{u_O}(\vec{x}).\vec{y} = \vec{M}(O).\vec{OA} - \vec{M}(B).\vec{OA}

Par bilinéarité du produit scalaire (factorisation), puis utilisation de la relation de Chasles.

\vec{u_O}(\vec{x}).\vec{y} = \left( \vec{M}(O)-\vec{M}(B) \right).\vec{OA}\\ \vec{u_O}(\vec{x}).\vec{y} = -\left( \vec{M}(B)-\vec{M}(O) \right).\vec{OA}\\ \vec{u_O}(\vec{x}).\vec{y} = -\vec{u_O}(\vec{OB}).\vec{OA} \vec{u_O}(\vec{x}).\vec{y} = -\vec{u_O}(\vec{y}).\vec{x}

Par bilinéarité du produit scalaire (factorisation), puis utilisation de la définition de l’endomorphisme \vec{u}(\vec{OB}) et enfin par définition des positions des points A et B.

Notre endomorphisme est donc antisymétrique… Et cela tombe très bien, parce qu’il est alors linéaire, ce qui va nous apporter beaucoup pour la suite.

Linéarité et Chasles : bye-bye l’arbitraire de l’origine

Tout endomorphisme antisymétrique est linéaire. Ceci se prouve assez facilement une fois que l’on se souvient d’une certaine propriété, qui peut sembler évidente mais que l’on va néanmoins prouver ici par souci d’exhaustivité : lorsqu’une relation vectorielle est vraie suivant toutes les projections possibles, alors elle est vraie.

En langage mathématique, on obtient donc le théorème suivant :

\forall \vec{x} \quad \vec{a}.\vec{x} = \vec{b}.\vec{x} \Leftrightarrow \vec{a} = \vec{b} \\

La réciproque est bien sûr trivialement vraie. L’implication peut sembler évidente à beaucoup de monde également, mais en faire une preuve complète en fait un bon exercice pour citer clairement les propriétés du produit scalaire utilisé et permettre de généraliser ce résultat même à des espaces vectoriels infinis. En effet, toutes les preuves précédentes et les deux qui vont suivre sont également valable dans un espace infini.

\forall \vec{x}\quad \vec{a}.\vec{x} = \vec{b}.\vec{x}

On met en facteur en faisant apparaître un zéro en terme de gauche :

(\vec{a}-\vec{b}).\vec{x} =0

En particulier, la propriété est vrai pour \vec{x} = \vec{a}-\vec{b} :
(\vec{a}-\vec{b}).(\vec{a}-\vec{b}) =0

Or le produit scalaire est une forme définie (\vec{u}.\vec{u} = 0 ssi  \vec{u} = \vec{0}), donc :
(\vec{a}-\vec{b}).(\vec{a}-\vec{b}) =0

D’où on déduit forcément :
(\vec{a}-\vec{b}).(\vec{a}-\vec{b}) =0

Autrement dit, si une chose est vraie suivant tous les points de vue, cette chose est vraie. Les philosophes pourraient encore débâtre, les mathématiciens non…

Revenons-en au cœur du problème : tout endomorphisme antisymétrique est linéaire. On sait, par l’antisymétrisme de l’endomorphisme \vec{u_O} :

\forall (\vec{x},\vec{y},\vec{z}) \\ \vec{u_O}(\lambda\vec{x}+\vec{y}).\vec{z} = -\left (\lambda\vec{x}+\vec{y} \right ).\vec{u_O}(\vec{z})

On utilise ensuite la bilinéarité du produit scalaire :

\vec{u_O}(\lambda\vec{x}+\vec{y}).\vec{z} = -\lambda\, \vec{x}.\vec{u_O}(\vec{z}) -\vec{y}.\vec{u_O}(\vec{z})

Et de nouveau par l’antisymétrisme (j’adore ce barbarisme) de l’endomorphisme \vec{u_O} :

\vec{u_O}(\lambda\vec{x}+\vec{y}).\vec{z} = \lambda\, \vec{u_O}(\vec{x}).\vec{z} +\vec{u_O}(\vec{y}).\vec{z} \\ \vec{u_O}(\lambda\vec{x}+\vec{y}).\vec{z} = \left ( \lambda\, \vec{u_O}(\vec{x})+\vec{u_O}(\vec{y}) \right ).\vec{z}

Et cette dernière équation étant vraie quelque-soit \vec{z}, on en conclue par le théorème rapidement présenté en début de paragraphe que :

\vec{u_O}(\lambda\vec{x}+\vec{y}) = \lambda\, \vec{u_O}(\vec{x})+\vec{u_O}(\vec{y})

Autrement dit, l’endomorphisme \vec{u_O} est linéaire.

Et de là tombe ce qui a pu vous sembler comme la pire escroquerie que l’on ne vous ait jamais vendue : l’endomorphisme \vec{u_O} est dépendant du point O, choix complètement arbitraire. Et l’on n’a jamais vu en mécanique la résultante d’un torseur dépendre de l’origine.

Pour l’instant, la définition de l’endomorphisme n’était claire que pour des vecteurs positionnés par rapport à l’origine. Essayons de résoudre maintenant un cas différent avec deux points A et B quelconques :

\vec{u_O}(\vec{AB}) = \vec{u_O}(\vec{OB}-\vec{OA})

Par la relation de Chasles.

\vec{u_O}(\vec{AB}) = \vec{u_O}(\vec{OB})-\vec{u_O}(\vec{AO})

Par la linéarité de l’endomorphisme.

\vec{u_O}(\vec{AB}) = \left ( \vec{\mathcal{M}}(B) - \vec{\mathcal{M}}(O) \right )-\left ( \vec{\mathcal{M}}(A) - \vec{\mathcal{M}}(O) \right )

Par l’endomorphisme défini grâce au moment du point obtenu vecteur position.

Et on a donc la propriété suivante, vraie quelque soit le couple de point A, B :

\vec{u_O}(\vec{AB}) = \vec{\mathcal{M}}(B) - \vec{\mathcal{M}}(A)

On voit alors clairement que cet endomorphisme ne dépend aucunement du point d’origine et que n’importe quel autre point nous aurait donné le même endomorphisme.

Rassurés, nous changeons donc \vec{u_O} en \vec{u} pour fêter cela !

Endomorphisme linéaire et matrice : une histoire d’amour fructueuse

On se limitera pour la suite à un espace vectoriel fini de dimension n. On peut donc définir la matrice A = (a_{i,j}) de l’endomorphisme \vec{u} dans une base orthonormée \mathcal{B} = (\vec{e}_1,...\vec{e}_n).

Les coefficients de cette matrice sont, par définition :

a_{i,j} = \vec{e}_i.\vec{u}(\vec{e}_j)

Or par antisymétrie de l’endomorphisme :

\vec{e}_i.\vec{u}(\vec{e}_j) = - \vec{e}_j.\vec{u}(\vec{e}_i)

Donc, a_{i,j} = - a_{j,i}.

Autrement dit, la matrice A est antisymétrique (A^T = -A).

Dans le cas d’un espace de dimension 3, on écrira pour la suite :

A = \begin{pmatrix} 0 & -c & b \\ c & 0 & -a \\ -b & a & 0 \end{pmatrix}

Pseudovecteur et produit vectoriel…

Soit l’entrée \vec{b} de la fonction exprimée dans la base \mathcal{B} sous la forme d’une matrice colonne :

\vec{b} = \begin{pmatrix} x\\ y\\ z \end{pmatrix}

L’image de l’entrée \vec{b} dans la base \mathcal{B} est donnée par le vecteur colonne calculé comme suit :

\vec{u}(\vec{b}) = \begin{pmatrix} 0 & -c & b \\ c & 0 & -a \\ -b & a & 0 \end{pmatrix} \begin{pmatrix} x\\ y\\ z \end{pmatrix} = \begin{pmatrix} -cy+bz\\ cx-az\\ -bx+ay \end{pmatrix}

Et là, on se rend compte que l’on peut réécrire ce calcul en terme d’un produit vectoriel :

\vec{u}(\vec{b}) = \begin{pmatrix} -cy+bz\\ cx-az\\ -bx+ay \end{pmatrix} = \begin{pmatrix} a\\ b\\ c \end{pmatrix} \wedge \begin{pmatrix} x\\ y\\ z \end{pmatrix}

Le fait que le vecteur résultant apparaissant ici est invariant par changement de base orthonormée directe est assez simple et direct.

Résumons donc ce que nous avons trouvé : soit un champ équiprojectif \vec{\mathcal{M}} dans un espace euclidien de dimension 3 : il existe alors un unique vecteur résultant \vec{R} tel que :

\forall (A,B)   \quad \vec{\mathcal{M}}(B) -\vec{\mathcal{M}}(A) = \vec{R} \wedge \vec{AB}

On a bien prouvé la relation de Varignon pour tous les torseurs définis dans un espace de dimension 3.

Mais on peut remarquer une petite « triche » : quand on passe d’une matrice à un produit vectoriel, il y a toute une notion qui apparaît très importante : celui de l’orientation de la base !

Ainsi apparaît la notion du pseudovecteur (ou vecteur axial) qui est un vecteur dont le sens dépend de l’orientation du trièdre de référence. Comme le vecteur position est toujours un vecteur « vrai » (appelé aussi vecteur polaire), dans un torseur, soit la résultante, soit le moment est un pseudovecteur.

On les reconnaît facilement, c’est ceux que les étudiants ont le plus de mal à comprendre : vecteur vitesse angulaire (résultante du torseur cinématique), moment d’une force (moment du torseur des efforts), moment cinétique et dynamique (moment des torseurs cinétiques et dynamique bien sûr). Et l’on voit par là que le problème que peuvent avoir certains étudiants est peut-être qu’intuitivement, ils ont compris que ce n’était pas tout à fait des vecteurs comme les autres (le signe dépend du sens trigonométrique, forcément choisi arbitrairement, si vous en doutez, regardez vous dans un miroir et faites des moulinets avec les bras).

À noter que ces notions de pseudovecteurs peuvent utilement être réutilisées dans d’autres branches de la physique qui utilise le rotationnel : l’électromagnétisme ou la mécanique des fluides par exemple.

Conclusion

Au départ était la curiosité de répondre à cette question qui traînait dans un coin de ma tête depuis une bonne dizaine d’année : en quoi la relation de Varignon et l’équiprojectivité sont-elles équivalentes.

Au final, j’ai eu le droit à des révisions sur les endomorphismes linéaires et la découverte de nouveaux concepts qui prennent bien plus de sens quand on comprend d’où ils viennent.

EVER 2016: Special Session on Offshore and Marine Renewable Energy: Conversion and Transmission

logo_everEleventh International Conference on Ecological Vehicles and Renewable Energies

EVER2016, April 6-8, 2016, Grimaldi Forum, Monaco

Call for Contributions to the Special Session on Offshore and Marine Renewable Energy: Conversion and Transmission

by Sara Armstrong (MaREI, University College Cork)
and Thibaut Kovaltchouk (G2Elab)

Thematic Areas: The proposed special session is an opportunity for researchers coming from academia or industry involved in the emerging field of marine energy conversion. Topics of interest of this special session include, but are not limited to:

  • Innovative concepts, component and topologies for energy conversion from offshore natural resources, such as wind, waves, tides, thermal difference and salinity gradient, with special interest for hybrid solutions.
  • Advanced control strategies ensuring increased power extraction and/or improvement in the power quality.
  • Grid code compliance.
  • Reliability, diagnostic and aging in offshore renewable energy conversion.
  • Design and sizing of system or components.
  • Farm layouts and AC or DC transmission schemes for offshore renewable energy farms.
  • Energy storage solutions for offshore energy applications.
  • Modeling to represent marine resources.
  • Real case studies and contributions on the state of advancement of on-going projects.
  • Life cycle analysis (economical and/or environmental).
  • Social acceptance and maritime governance

Submission: Prospective authors are kindly invited to submit a comprehensive extended abstract of two to three A4 pages, written in English, one-column format, including author name(s), mailing address, and e-mail address. There is no specific template. Abstracts should be submitted directly to the special session organizers: s.armstrong@ucc.ie, thibaut.kovaltchouk@g2elab.grenoble-inp.fr. Please write “EVER Submission” in the email subject line.

Important Dates: November 22, 2015 Abstract submission
December 20, 2015 Provisional Acceptance
January 17, 2016 Full paper submission
January 31, 2016 Final acceptance

Présentation de la soutenance de thèse / PhD defense presentation

beamer_slide_titrebeamer_slide_titre_en

Présentation de la soutenance (en français)
PhD defense presentation (in English)

page_gardeManuscrit de thèse (en français) / PhD thesis manuscript (in French)

Some photos were taken by Abdallah Darkawi (thanks to him!) during the presentation and the questions :

The jury :

jury_3jury_4jury_1jury_2
From left to right:
– Bernard Multon, ENS Rennes, Doctoral advisor
– Hamid Ben Ahmed, ENS Rennes, Doctoral advisor
– Delphine Riu, Ense3, Manuscript examiner
– Mohamed Benbouzid, Université de Brest, Jury president
– Jean-Michel Vinassa, Institut Polytechnique de Bordeaux, Manuscript examiner
– Muriel Primot, Université de Nantes, Doctoral advisor
– Aurélien Babarit, École Centrale de Nantes, Thesis examiner
– Judicaël Aubry, ESTACA, Doctoral advisor

The audience :

public_1public_2

The candidate :

docteur_2docteur_1

Soutenance de thèse de doctorat / PhD defense

Contributions à la co-optimisation contrôle-dimensionnement sur cycle de vie sous contrainte réseau des houlogénérateurs directs

le 9 juillet 2015, 09h30
ENS Rennes, Salle du conseil

Soutenance de thèse devant le jury composé de :

  • M. BENBOUZID Mohamed El Hachemi, Professeur des universités, LBMS, Brest, Examinateur
  • Mme RIU Delphine, Professeur des Universités, G2Elab, Grenoble, Rapporteur
  • M. VINASSA Jean-Michel, Professeur des Universités, IMS, Bordeaux, Rapporteur
  • M. BABARIT Aurélien, Ingénieur de recherche, Ecole Centrale de Nantes, Nantes, Examinateur
  • M. AUBRY Judicaël, Enseignant-chercheur, ESTACA, Laval, Co-encadrant
  • Mme PRIMOT Muriel, Maître de Conférences, Université de Nantes, Nantes, Co-encadrante
  • M. BEN AHMED Hamid, Maître de Conférences HDR, ENS Rennes, Bruz, Co-directeur de thèse
  • M. MULTON Bernard, Professeur des Universités, ENS Rennes, Bruz, Directeur de thèse

Résumé :

Les travaux de thèse traitent de la minimisation du coût du kWh par houlogénération directe à chaîne électrique directe, enjeu crucial pour la viabilité économique de cette technologie. Malgré la simplicité d’une telle chaîne, le principe de conversion, utilisant un système oscillant, induit des fluctuations importantes de la puissance produite. Sans précautions, ces fluctuations peuvent mener à une faible efficacité de la récupération globale, à un vieillissement accéléré en cyclage des composants fragiles de la chaîne électrique ainsi qu’à un non-respect des contraintes réseau.

Lire la suite