2019-04-03 14:59:33 +02:00
\documentclass [../../td] { subfiles}
2019-01-15 15:57:03 +01:00
\begin { document}
2019-04-03 14:59:33 +02:00
\subsection * { Exercice 1: Forme quadratique de la fonction de Lyapunov}
2019-01-15 15:57:03 +01:00
Soit le système donné par:
2019-04-03 15:43:18 +02:00
\[
\begin { cases}
\dot { x_ 1} = f_ 1(x_ 1,x_ 2,...,x_ n) \\
\dot { x_ 2} = f_ 2(x_ 1,x_ 2,...,x_ n)\\
\dot { x_ n} = f_ n(x_ 1,x_ 2,...,x_ n)
\end { cases}
\]
2019-01-15 15:57:03 +01:00
\begin { enumerate}
\item
L'approximation linéaire pour le point d'équilibre $ x _ 0 $ est :
\begin { align*}
\delta \dot { x} _ 1 =& \sum _ { i=1} ^ { n} a_ { 1i} \delta x_ i\\
& \vdots \\
\delta \dot { x} _ n =& \sum _ { i=1} ^ { n} a_ { ni} \delta x_ i \text { avec, } a_ { ij} = \left . \frac { \partial f_ j} { \partial x_ i} \right |_ { x=x_ 0}
\intertext { Pour simplifier, on pose $ x _ 0 = 0 $ , et comme $ \delta x _ 1 = x _ 1 - x _ { 0 i } $ , on a:}
\dot { x} _ 1 =& \sum _ { i=1} ^ { n} a_ { 1i} x_ i\\
& \vdots \\
\dot { x} _ n =& \sum _ { i=1} ^ { n} a_ { ni} x_ i
\end { align*}
\item \begin { align*}
\dot { z} _ i =& \sum _ { j=1} ^ n C_ { ji} \dot { x_ i}
= \sum _ { j=1} ^ n C_ { ji} \sum _ { k=1} ^ n a_ { jk} x_ k\\
=& \sum _ { k=1} ^ n \sum _ { j=1} ^ n C_ { ji} a_ { jk} x_ k
= \sum _ { k=1} ^ n \lambda _ k C_ { ki} x_ k\\
=& z_ i \lambda _ i
\end { align*}
\item On considère la fonction de Lyapunov candidate fournie, on calcul alors:
\begin { align*}
\dot { V} =& \sum _ { k=1} ^ n \dot { z} _ k z^ *_ k + z_ k\dot { z} ^ *_ k\\
=& \sum _ { k=1} ^ n \lambda _ k z_ k z^ *_ k + \lambda _ k^ * z_ k z^ *_ k\\
=& \sum _ { k=1} ^ n 2 Re(\lambda _ k)z_ kz_ k^ * < 0 \forall k
\end { align*}
\item L'analyse doit se faire sur un voisinage suffisamment petit de l'origine (CN).
\item Modèle linéaire:
\begin { align*}
\dot { x_ 1} & = -x_ 2\\
\dot { x_ 2} & = x_ 1\\
\text { donc } A & = \begin { pmatrix}
0& -1\\ 1& 0\end { pmatrix} \\
\end { align*}
Ainsi, les valeurs propres sont i et -i.\\
Le système linéaire est stable au sens de Lyapunov. Par contre, il n'y a pas de stabilité asymptotique.\\
On passe alors dans la base modale. Pour cela, on résout:
\begin { align*}
jc_ { 11} & = a_ { 11} c_ { 11} + a_ { 21} c_ { 21} \\
-jc_ { 12} & = a_ { 11} c_ { 12} + a_ { 21} c_ { 22} \\
jc_ { 21} & = a_ { 12} c_ { 11} + a_ { 22} c_ { 21} \\
-jc_ { 22} & = a_ { 12} c_ { 22} + a_ { 22} c_ { 22} \\
\Rightarrow z_ 1 & = x_ 1 + j x_ 2 \text { et, } z_ 2 = x_ 2 + jx_ 1\\
\end { align*}
Comme $ V = \sum _ { k = 1 } ^ 2 z _ k z _ k ^ * $ alors,
\begin { align*}
\dot { V} & = 8(x_ 1^ 4+x_ 2^ 4)(1-\alpha x_ 1^ 2 - \beta x_ 2^ 2)\\
\dot { V} & \leq 0\\
\Rightarrow & \alpha x_ 1^ 2 + \beta x_ 2^ 2 > 1
\end { align*}
2019-04-03 15:43:18 +02:00
%\img{0.5}{1.png}
2019-01-15 15:57:03 +01:00
Au voisinage de l'origine, ($ \alpha x _ 1 ^ 2 + \beta x _ 2 ^ 2 > 1 $ ), c'est instable, mais en dehors de la trajectoire converge. On a un cycle limite pour $ \alpha x _ 1 ^ 2 + \beta x _ 2 ^ 2 = 1 $
\end { enumerate}
2019-04-03 14:59:33 +02:00
\subsection * { Exercice II : Système du 2nd ordre}
2019-01-15 15:57:03 +01:00
\begin { enumerate}
\item Suivant Routh, $ a> 0 \et b> 0 $
\item Cas linéaire : $ f ( y ) = by $ , alors $ b> 0 $ implique que $ y ( by ) > 0 $ pour $ y \neq 0 $ , soit $ yf ( y ) > 0 $ pour $ y \neq 0 $
\item On prend $ V ( x _ 1 ,x _ 2 ) = x _ 2 ^ 2 + 2 \int _ 0 ^ { x _ 1 } f ( \tau ) d \tau $ . Elle est définie positive et : \begin { align*}
\dot { V} & = 2f(x_ 1)\dot { x_ 1} + 2x_ 2 \dot { x_ 2} \\
& = 2 x_ 2 f(x_ 1) - 2ax_ 2^ 2 -2x_ 2 f(x_ 1)
& \leq 0 \text { : origine stable pour Lyapunov}
\end { align*}
\end { enumerate}
2019-04-03 14:59:33 +02:00
\subsection * { Exercice III : Commandabilité et observabilité}
2019-04-03 15:43:18 +02:00
\newcommand { \D } { \mathcal { D} }
\newcommand { \Vc } { \mathcal { V} }
2019-01-15 15:57:03 +01:00
\begin { enumerate}
\item On considère le système :
2019-04-03 15:43:18 +02:00
$ \begin { cases }
\dot { x_ 1} & = -x_ 2 -x_ 2^ 2\\
\dot { x_ 2} & = u
\end { cases}
$
2019-01-15 15:57:03 +01:00
On a donc $ f ( x ) = \vect { - x _ 2 - x _ 2 ^ 2 \\ 0 } \et g ( x ) = \vect { 0 \\ 1 } $ .
$ E = \{ f ( x ) ,g ( x ) \} $
\begin { align*}
[f,g] & = J_ gf - J_ fg \\
2019-04-03 15:43:18 +02:00
& = \vect { 0 & 0 \\ 0 & 0} f(x)-\vect { 0 & -1 -2x_ 2\\ 0 & 0} \vect { 0 \\ 1} = \vect { 1 + 2x_ 2 \\ 0} \\
2019-01-15 15:57:03 +01:00
[f,[f,g]] & = J_ { [f,g]} f - J_ f[f,g] \\
2019-04-03 15:43:18 +02:00
& = \vect { 0 & 2\\ 0 & 0} \vect { -x_ 2 -x_ 2^ 2 \\ 0} - \vect { 0 & -1-2x_ 2\\ 0 & 0} \vect { 1 + 2x_ 2 \\ 0} = \vect { 0 \\ 0} \\
2019-01-15 15:57:03 +01:00
[g,[f,g]] & = J_ g[f,g] - J_ { [f,g]} g \\
2019-04-03 15:43:18 +02:00
& = 0 - \vect { 0 & 2\\ 0 & 0} \vect { 0 \\ 1} = -\vect { 2 \\ 0}
2019-01-15 15:57:03 +01:00
\end { align*}
On a donc : \[
\D = \{ \vect { 0 \\ 1} , \vect { 2 \\ 0} , \vect { 1+2x_ 2 \\ 0} \} \]
$ \D $ est de dimension 2 : le système est commandable.
\item On a $ f ( x ) = \vect { x _ 2 ^ 2 \\ 0 } \et g ( x ) = \vect { 0 \\ 1 } $ .
\begin { align*}
[f,g] & = \vect { -2 x_ 2 \\ 0} \\
[f,[f,g]] & = \vect { 0 \\ 0} \\
[g,[f,g]] & = \vect { -2 \\ 0}
\end { align*}
On a donc : \[ \D = \{ \vect { 0 \\ 1 } , \vect { - 2 \\ 0 } , \vect { 2 x _ 2 \\ 0 } \} \]
$ \D $ est de dimension 2 : le système est commandable.\\
De plus, on a $ h ( x ) = x _ 1 $
$ \Vc = \{ h,L _ fh,L _ gh,L _ fL _ gh, \dots \} $ et on étudie $ \nabla \Vc $ .
On a $ \nabla h = \vect { 0 \\ 1 } $ . Il reste à trouver un élément de $ \nabla \Vc $ qui a une 2e composante non nulle pour que $ \nabla \Vc $ soit de dimension 2, et que le système soit observable.
\begin { align*}
L_ fh(x) = x_ 2^ 2 \quad & \quad \nabla L_ fh(x) = \vect { 0\\ 2x_ 2} \text { ok mais dépend de $ x _ 2 $ } \\
L_ gL_ fh(x) = 2x_ 2 \quad & \quad \nabla L_ gL_ gh(x) = \vect { 0 \\ 2} \text { COOL!}
\end { align*}
Le système est donc observable.
\end { enumerate}
2019-04-03 14:59:33 +02:00
\end { document}
2019-04-03 15:43:18 +02:00
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "../main"
%%% End: