2019-04-03 14:59:33 +02:00
\documentclass { ../../td}
2019-01-15 15:57:03 +01:00
\begin { document}
2019-04-03 14:59:33 +02:00
\subsection * { Exercice I: Platitude}
2019-01-15 15:57:03 +01:00
\begin { enumerate}
\item On considère le système suivant:
2019-04-03 15:43:18 +02:00
\[
\begin { cases}
\dot { x_ 1} & = x_ 2 - x_ 1 cos x_ 1\\
\dot { x_ 2} & = (x_ 2^ 2 + u)(5 + sinx_ 1)
\end { cases}
\]
2019-01-15 15:57:03 +01:00
Montrons que $ x _ 1 $ est une sortie plate, pour cela, il faut exprimer u en fonction de $ x _ 1 $ et ses dérivées uniquement:
\begin { align*}
x_ 2 & = \dot { x_ 1} + x_ 1 cos x_ 1\\
u & = \frac { \dot { x_ 2} } { 5 + sin x_ 1} - x_ 2^ 2\\
& = \frac { \ddot { x_ 1} + \dot { x_ 1} cosx_ 1 - \dot { x_ 1} x_ 1 sinx_ 1} { 5 + sin x_ 1} - (\dot { x_ 1} + x_ 1 cos x_ 1)^ 2
\end { align*}
$ x _ 1 $ est bien une sortie plate.
\item On considère le système suivant:
\[ \left \{ \begin { matrix }
\dot { x_ 1} & = -x_ 1^ 2 + x_ 2\\
\dot { x_ 2} & = x_ 2x_ 1 + u_ 1\\
\dot { x_ 3} & = u_ 2
\end { matrix} \right . \]
Montrons que $ x _ 1 $ et $ x _ 3 $ sont des sorties plates:
\begin { align*}
x_ 2 & = \dot { x_ 1} - x_ 1^ 2 \\
u_ 1 & = \dot { x_ 2} - x_ 2 x_ 1\\
& = \ddot { x_ 1} - 3x_ 1 \dot { x_ 1} + x_ 1^ 3\\
u_ 2 & = \dot { x_ 3}
\end { align*}
On a bien les commandes en fonctions de $ x _ 1 $ ,$ x _ 3 $ et leurs dérivées uniquement.
\end { enumerate}
2019-04-03 14:59:33 +02:00
\subsection * { Exercice II: Planification}
2019-01-15 15:57:03 +01:00
On considère le système suivant:
2019-04-03 15:43:18 +02:00
\[
\begin { cases}
\dot { x_ 1} & = x_ 2\\
\dot { x_ 2} & = \alpha \dot { x_ 1} + u
\end { cases}
\]
2019-01-15 15:57:03 +01:00
\begin { enumerate}
\item Trouvons la sortie plate y. On remarque que pour $ y = x _ 1 $ on a $ u = \ddot { y } - \alpha \dot { y } $ , donc ce y convient (est une sortie plate) et on a alors le système:
\[ \left \{ \begin { matrix }
\dot { x_ 1} & = y\\
\dot { x_ 2} & = \dot { y} \\
u & = \ddot { y} - \alpha \dot { y}
\end { matrix} \right . \]
\item
\begin { align*}
y_ c(t) & = a(T-t)^ 3 + b(T-t)^ 2 + c(T-t) + d\\
y_ c(0) & = y_ 0 \Rightarrow aT^ 3 + bT^ 2 + cT + d = y_ 0\\
y_ c(T) & = y_ T \Rightarrow d = y_ T\\
\dot { y_ c} (T) & = 0 \Rightarrow -c = 0\\
\ddot { y_ c} (T) & = 0 \Rightarrow b = 0\\
& \Rightarrow aT^ 3 = y_ 0 - y_ T\\
& \Rightarrow a = \frac { y_ 0 - y_ T} { T^ 3} \\
u & = \ddot { y_ c} - \alpha \dot { y_ c} \\ 7
& =3\frac { y_ 0 -y_ T} { T^ 3} (T-t)(3 + \alpha (T-t)
\end { align*}
On a la commande en BO. En posant $ \delta x = x - x _ c $ on peut linéariser le modèle autour du point et approcher une trajectoire point par point.\\
La planification de la trajectoire permet de trouver un modèle linéaire autour de la trajectoire obtenue via $ u _ c $ , la commande de planification.
\end { enumerate}
2019-04-03 14:59:33 +02:00
\subsection * { Exercice III: Suspension magnétique}
2019-01-15 15:57:03 +01:00
On peut appliquer le backstepping car le système est de forme triangulaire :
\[ \left \{ \begin { matrix }
\dot { x_ 1} & = x_ 2\\
\dot { x_ 2} & = -g + \frac { k} { m} \frac { x_ 3^ 2} { (c-x_ 1)^ 2} \\
\dot { x_ 3} & = \frac { -x_ 3 + k_ v u} { \tau }
\end { matrix} \right . \]
On a $ u ^ * $ qui permet d'avoir $ x _ 3 $ qui via $ \alpha _ 3 $ donne $ x _ 3 ^ * $ qui lui donne $ x _ 2 $ qui via $ \alpha _ 2 $ donne $ x _ 2 ^ * $ qui donne $ x _ 1 $ qui lui donne $ x _ 1 ^ * $ via $ \alpha _ 1 $ .
Peut-être.
\subsection * { Etape 1:}
On pose $ V _ 1 ( x _ 1 ) = \frac { 1 } { 2 } ( x _ 1 - x _ 1 ^ * ) ^ 2 $ avec $ x _ 1 ^ * = z _ * $ , et, $ \dot { V _ 1 } = \alpha _ 1 ( x _ 1 - x _ 1 ^ * ) ^ 2 $ . En égalisant les deux termes, on trouve après simplification que:
\[ x _ 2 ^ * = \alpha _ 1 ( x _ 1 - x _ 1 ^ * ) + \dot { x _ 1 } ^ * \text { avec, } \alpha _ 1 < 0 \]
\subsection * { Etape 2:}
On pose:
\begin { align*}
V_ 2(x_ 1,x_ 2)& = \frac { 1} { 2} (x_ 1 - x_ 1^ *)^ 2 + \frac { 1} { 2} (x_ 2 - x_ 2^ *)^ 2\\
\dot { V_ 2} (x_ 1,x_ 2) & = \alpha _ 1(x_ 1 - x_ 1^ *)^ 2 + \alpha _ 2(x_ 2 - x_ 2^ *)^ 2 \text { avec, } \alpha _ 2 < \alpha _ 1 <0
\intertext { On dérive, on égalise et on injecte $ \dot { x _ 2 } $ pour trouver}
x_ 3^ 2 & = \hat { x_ 3} ^ * = (\alpha _ 2(x_ 2-x_ 2^ *) + g + \dot { x_ 2} ^ *) \frac { m} { k} (c-x_ 1)^ 2
\end { align*}
\subsection * { Etape 3:}
On s'intéresse ici à $ \hat { x _ 3 } $ plutot que $ x _ 3 ^ 2 $ .
On pose:
\begin { align*}
V_ 3(x_ 1,x_ 2,\hat { x_ 3} ) & = V_ 2(x_ 1,x_ 2) + \frac { 1} { 2} (\hat { x_ 3} - \hat { x_ 3} ^ *)^ 2\\
\dot { V_ 3} (x_ 1,x_ 2,\hat { x_ 3} ) & = \dot { V_ 2} (x_ 1,x_ 2) + \alpha _ 3(\hat { x_ 3} - \hat { x_ 3} ^ *)^ 2
\intertext { On dérive, on égalise et on injecte $ \dot { x _ 3 } $ pour trouver}
u = \frac { 2x_ 3 + \alpha _ 3 \tau (x_ 3 - \hat { x_ 3} ^ */x_ 3) + \tau \dot { \hat { x_ 3} } ^ *} { 2k_ v}
\end { align*}
Il faut éviter que $ x _ 3 = 0 $ pour avoir i non nul?
2019-04-03 14:59:33 +02:00
\subsection * { Exercice IV: Commande par modes glissants}
2019-01-15 15:57:03 +01:00
$ \alpha _ 0 = 1 . 5 , \alpha ( t ) = \alpha _ 0 + \Delta \alpha avec | \Delta \alpha | \leq 0 . 5 $
$ S = \dot { \epsilon } + \beta _ 0 \epsilon $
$ \dot { S } = \ddot { \epsilon } + \beta _ 0 \dot { \epsilon } $ Poursuite assymptotique
$ u = ( \alpha _ 0 x _ 2 ^ 2 + \ddot { y _ c } + \dot { S } + \alpha K sign ( S ) ) $
Premier terme: mode linéarisant
Terme 3 et 4: mode glissant
$ \alpha > 1 K tel que | \Delta \alpha x _ 2 ^ 2 | < K $
2019-04-03 14:59:33 +02:00
\end { document}
2019-04-03 15:43:18 +02:00
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "../main"
%%% End: