ordonencement des chap de 424
This commit is contained in:
parent
a436e6885b
commit
94a9f5eea2
6 changed files with 1713 additions and 2496 deletions
|
@ -1,382 +1,329 @@
|
|||
\documentclass[main.tex]{subfiles}
|
||||
\newcommand{\D}{\mathcal{D}}
|
||||
\newcommand{\Kc}{\mathcal{K}}
|
||||
\newcommand{\Lc}{\mathcal{L}}
|
||||
\begin{document}
|
||||
Il s'agit de regarder la stabilité, la convergence vers un point d'équilibre,...\\
|
||||
On se place dans le cas présent en régime libre pour un système invariant, c'est à dire que $\dot{x} = f(x,u=0)$ et $y = g(x,u=0)$.\\
|
||||
|
||||
\begin{rem}
|
||||
On pose $u=0$, car la stabilité et la dynamique du système sont des caractéristiques intrinsèques d'un système, donc indépendantes de l'entrée.\\
|
||||
\end{rem}
|
||||
|
||||
Pour étudier la stabilité, on se place dans le plan de phase. Celui-ci permet de situer les points d'équilibres et de vérifier la stabilité. Sa dimension est égale au nombre de variables d'état.
|
||||
|
||||
Ainsi, pour des systèmes du second ordre, on va avoir:
|
||||
\[\begin{matrix}
|
||||
x= \begin{pmatrix}x_1\\x_2\end{pmatrix} &\text{et}& f(x)=\begin{pmatrix}f_1(x)\\f_2(x)\end{pmatrix}
|
||||
\end{matrix}\]
|
||||
L'espace des phases devient alors ici un plan de phase dans lequel on va rechercher les trajectoires.
|
||||
|
||||
Dans la suite, on s'intéressera au cas de dimension deux pour positionner et comprendre le problème.
|
||||
|
||||
\section{Analyse qualitative du comportement}
|
||||
Soit le système LTI obtenu à partir de la linéarisation autour d'un point d'équilibre $x_0$.\\
|
||||
On dit que ce point d'équilibre est stable si c'est un point de convergence des trajectoire, ou instable si c'est un point de divergence des trajectoires.\\
|
||||
|
||||
On étudie donc le système autour de son point d'équilibre, en linéarisant son équation autour de ce point. On a donc l'équation:
|
||||
\begin{align*}
|
||||
\Aboxed{\delta \dot{x}&= A \delta x}\\
|
||||
\text{où, } A&= \frac{\partial f(x)}{\partial x}|_{x=x_0} \text{ Jacobien de f en $x_0$}\\
|
||||
\text{et, }\delta x &= x-x_0
|
||||
\end{align*}
|
||||
|
||||
\begin{rem}
|
||||
En N.L, la stabilité est associée aux points d'équilibre. Ainsi, un même système N.L peut avoir des points d'équilibre stables et instable.
|
||||
\end{rem}
|
||||
\begin{rem}
|
||||
Cette approximation peux être réalisé dna sle cas d'un régime forcé:
|
||||
\[
|
||||
\begin{cases}
|
||||
\dot{x} = f(x,u)\\
|
||||
y = h(x,u)
|
||||
\end{cases}
|
||||
\]
|
||||
avec $f(\bar{x},\bar{u}) = 0$ et on alors:
|
||||
\[
|
||||
\begin{cases}
|
||||
f(\bar{x}+\delta x,\bar{u}+\delta u) = f(\bar{x},\bar{u}) + A. \delta x + B \delta u\\
|
||||
h(\bar{x}+\delta x,\bar{u}+\delta u) = h(\bar{x},\bar{u}) + C. \delta x + D \delta u
|
||||
\end{cases}
|
||||
\]
|
||||
Donc :
|
||||
\[
|
||||
\begin{cases}
|
||||
\delta \dot{x} = A. \delta x + B. \delta u \\
|
||||
\delta \dot{u} = C. \delta x + D. \delta u
|
||||
\end{cases}
|
||||
\]
|
||||
\end{rem}
|
||||
\emph{L'analyse qualitative de la stabilité est faite par linéarisation.} \\
|
||||
\begin{prop}
|
||||
La trajectoire pour une condition initiale $\delta x_0$ est solution de l'équation différentielle précédente, ie \[\delta x(t) = M exp(Jt)M^{-1}\delta x_0\] où J est la matrice diagonale ou de Jordan de A, la matrice d'évolution, et M la matrice de vecteurs propres tel que : $M^{-1}AM = J$.\\
|
||||
\end{prop}
|
||||
\subsection{Cas $\mathbb{R}$}
|
||||
$J = \begin{pmatrix}
|
||||
\lambda_1 &0 \\0&\lambda_2
|
||||
\end{pmatrix}$ où $\lambda_1 \neq \lambda_2$\\
|
||||
On pose le changement de variable $\delta z = M^{-1}\delta x$ : Base Modale.\\ Donc on a $\delta z_0 = M^{-1}\delta x_0$ comme valeur initiales, d'où :
|
||||
\begin{align*}
|
||||
\delta z_1(t) &= e^{\lambda_1t}\delta z_{01}\\
|
||||
\delta z_2(t) &= e^{\lambda_2t}\delta z_{02}
|
||||
\end{align*}
|
||||
Ceci permet de tracer les trajectoires dans la base modale.\\
|
||||
|
||||
\begin{enumerate}
|
||||
|
||||
\item Dans le cas où $\lambda_2 < \lambda_1 < 0$ ou $0 < \lambda_1 < \lambda_2$, on obtient:
|
||||
\begin{center}
|
||||
\includegraphics[scale=0.5]{1/graph3.png}
|
||||
\end{center}
|
||||
D'un coté on à la convergence plus rapide de $\delta z_2$ par rapport à $\delta z_1$ et de l'autre la divergence plus rapide de $\delta z_2$ par rapport à $\delta z_1$. On a un \emph{noeud} qui est donc soit stable soit instable. Et son \emph{index topologique vaut $+1$}\\
|
||||
|
||||
\item Dans le cas où $\lambda_2 < 0 < \lambda_1 $, on obtient:
|
||||
\begin{center}
|
||||
\includegraphics[scale=0.5]{1/graph4.png}
|
||||
\end{center}
|
||||
On est dans un cas instable et on a un point selle, d'index $-1$ \\
|
||||
|
||||
|
||||
\item Dans le cas ou $\lambda_1 = 0$, on a:
|
||||
\begin{align*}
|
||||
\delta z_1 &= \delta z_{01}\\
|
||||
\delta z_2 &= e^{\lambda t} \delta z_{02}
|
||||
\end{align*}
|
||||
d'où le graphique:
|
||||
\begin{center}
|
||||
\includegraphics[scale=0.5]{1/graph6.png}
|
||||
\end{center}
|
||||
Il n'y a pas de point d'équilibre car A est non inversible ce qui implique que $\dot{x}=Ax \Rightarrow x=0$\\
|
||||
\section{Trajectoire}
|
||||
Dans le cas linéaire, la trajectoire est la solution au système $\dot{x}=Ax$ avec $x(0)=x_0$. Cette solution est unique. Qu'en est-il en non-linéaire?
|
||||
|
||||
\begin{rem}
|
||||
Il n'y a pas de point d'équilibre d'après la définition $ \dot{x} = 0$ même si graphiquement on converge vers un point.
|
||||
\end{rem}
|
||||
|
||||
\item Dans le cas où $\lambda_1 = \lambda_2 = \lambda$\\
|
||||
Si $J = \begin{pmatrix}\lambda & 0 \\ 0 & \lambda\end{pmatrix}$ le sous espace propre est de dimension 2.\\
|
||||
On a un point d'équilibre.
|
||||
|
||||
|
||||
Si la dimension du sous espace propre est de 1, $J = \begin{pmatrix}\lambda & 1 \\ 0 & \lambda\end{pmatrix}$, donc :
|
||||
\begin{align*}
|
||||
\delta z_1 &= t e^{\lambda t} \delta z_{01} + e^{\lambda t} \delta z_{02}\\
|
||||
\delta z_2 &= e^{\lambda t} \delta z_{02}
|
||||
\end{align*}
|
||||
\begin{center}
|
||||
\includegraphics[scale=0.5]{1/graph5.png}
|
||||
\end{center}
|
||||
|
||||
\end{enumerate}
|
||||
|
||||
|
||||
\subsection{Cas $\mathbb{C}$}
|
||||
On a maintenant $\lambda_{1,2} = \alpha \pm j\beta$. On considère la représentation d'état : $\delta \dot{z_1} = M^{-1} \delta x$ tel que :
|
||||
\begin{align*}
|
||||
\delta \dot{z_1} &= \alpha \delta z_1 - \beta \delta z_2\\
|
||||
\delta \dot{z_2} &= \beta \delta z_1 + \alpha \delta z_2
|
||||
\intertext{On utilise les coordonnées polaires :}
|
||||
r = \sqrt{\delta z_1^2 + \delta z_2^2} &\text{ et, } \theta = arctan\left(\frac{\delta z_2}{\delta z_1}\right)
|
||||
\intertext{on a donc :}
|
||||
\dot{\theta} &= \beta\\
|
||||
\dot{r} &= \alpha r
|
||||
\end{align*}
|
||||
Ainsi, on obtient :
|
||||
\[\left \{ \begin{matrix}
|
||||
\theta(t) = \theta_0 + \beta t\\
|
||||
r(t) = e^{\alpha t} r_0
|
||||
\end{matrix}\right.\]
|
||||
|
||||
\begin{center}
|
||||
\includegraphics[scale=0.5]{1/graph7.png}
|
||||
\end{center}
|
||||
\[
|
||||
\begin{cases}
|
||||
\delta z_1(t) & = e^{\lambda t} \\
|
||||
\delta z_{10} + te^{\lambda t} \delta z_{20}\\
|
||||
\delta z_2(t) & = e^{\lambda t} \delta z_{20}
|
||||
\end{cases}
|
||||
\]
|
||||
\nopagebreak[1]
|
||||
\section{Cycle limite}
|
||||
\begin{defin}
|
||||
Un système $\dot{x}=f(x)$ possède un \emph{cycle limite} $\mathcal{C}$ si il existe un intervalle de temps $[t_0,t_0+T]$ et $\forall x_0 \in \mathcal{C}$ tel que la trajectoire $\chi(t,x_0)$ soit solution de $\dot{x}=f(x)$ et avec $\chi(t_0,x_0)=x_0$et vérifie :
|
||||
\begin{itemize}
|
||||
\item $\chi(t,x_0) \in \mathcal{C} \forall t\in[t_0,t_0+T[$
|
||||
\item $\chi(t_0+T,x_0) =x_0$
|
||||
\end{itemize}
|
||||
Un système dynamique sur $\D \subset \R^n$, où $n$ est la dimension du système, est un triplet $(\D,\R,\chi)$ où $\chi:\R \times \D \rightarrow \D$ est une trajectoire, tel que les axiomes suivants sont vérifiés:
|
||||
\begin{enumerate}
|
||||
\item Continuité : $\chi(.,.)$ est continue sur $\R \times \D$ et $\forall t \in \R$, $\chi(.,x)$ est dérivable.
|
||||
\item Consistance : $\chi(0,x_0)=x_0$, $\forall x_0\in \D$.
|
||||
\item Propriété de groupe : $\chi(\tau, \chi(t,x_0)) = \chi(t+\tau,x_0)$, $\forall x_0\in \D$.
|
||||
\end{enumerate}
|
||||
\end{defin}
|
||||
|
||||
|
||||
On considère un système oscillant, c'est à dire qu'il existe $T>0$ tel que $\forall t > 0$, $x(t+T) = x(t)$.\\
|
||||
(On exclut cependant le cas $x(t)$ = constante).
|
||||
\begin{rem}
|
||||
Un point d'équilibre peut être interpréter comme un cycle limite singleton $ \forall T\in\R$.
|
||||
\begin{itemize}
|
||||
\item On dénote le système $(\D,\R,s)$ par $G$, où $\chi(.,.)$ est la trajectoire et $\D$ est l'espace de phase.
|
||||
\item On dénote la trajectoire $\chi(t,.) : \D \rightarrow\D$ par $\chi_t(x_0)$ ou $\chi_t$.
|
||||
\item Suivant l'axiome de consistance, $\chi_0(x_0)=x_0$ et suivant la propriété de groupe :
|
||||
\[ (\chi_{\tau} \circ \chi_t)(x_0) = (\chi_t \circ \chi_{\tau})(x_0) = \chi_{t+\tau}(x_0) \]
|
||||
Ainsi l'application inverse de $\chi_t$ est $\chi_{-t}$ où $\chi_t$ est un homéomorphisme (bijective, continue, inverse continue).
|
||||
|
||||
En effet, montrons que $\chi_t$ est injective.
|
||||
|
||||
Soit $y,z\in \D$ tels que $\chi_t(z)=\chi_t(y)$.
|
||||
On a $z=s_0(z)=\chi(0,z)=\chi(t-t,z)=\chi(-t,\chi(t,z))=\chi(-t,\chi(t,y))=\chi(0,y)=y$
|
||||
|
||||
$\chi_t$ est surjective : $\forall z \in D, \exists y \in \D$ tel que $y=\chi(-t,z)$.
|
||||
|
||||
Enfin, $\chi_t$ est continue sur $\R$ donc $\chi_{-t}$ est continue.
|
||||
\end{itemize}
|
||||
\end{rem}
|
||||
|
||||
\begin{exemple}
|
||||
Système linéaire causal de dimension $n$ ($n$ variables d'état)
|
||||
|
||||
$s:[0,+\infty[ \times \R^n \rightarrow \R^n$ où $\chi(t,x)=e^{At}x$ où $A\in\R^n$ matrice d'évolution
|
||||
|
||||
Ainsi $\chi_t(x) = e^{At}x$ où $\chi_t :
|
||||
\begin{cases}
|
||||
\R^n & \rightarrow \R\\x & \mapsto e^{At}x
|
||||
\end{cases}
|
||||
$
|
||||
|
||||
On a $(\chi_{\tau} \circ \chi_t) (x) = \chi_{\tau}(\chi_t(x)) = e^{A\tau}e^{At}x = \chi_{t+\tau}(x)$
|
||||
\end{exemple}
|
||||
|
||||
\begin{prop}
|
||||
\begin{description}
|
||||
\item[Cycle limite stable]~\\
|
||||
Pour toutes les conditions initiales appartenant au voisinage du cycle limite.
|
||||
\[\exists t_0 > 0 \text{ et }T > 0 \text{ tel que } \forall t>t_0, \quad x(t+T) = x(t)\]
|
||||
i.e. toute trajectoire dans un voisinage du cycle limite converge dans un temps fini vers le cycle limite.
|
||||
\item[Cycle limite instable]~\\
|
||||
Toutes les trajectoires divergent du cycle limite.\\
|
||||
Pour toutes les CI n'appartenant pas au cycle limite, $ \exists t > 0 \text{ tel que} x(t) \notin \text{cycle limite} $.
|
||||
|
||||
\item[Cycle semi-stable]~\\
|
||||
Une partie des trajectoires converge et d'autres divergent du cycle limite.
|
||||
\end{description}
|
||||
Suivant l'axiome 1, le système $G$ peut être décrit par une équation différentielle sur $\D$. En particulier, la fonction $f:\D \rightarrow \R^n$ définie par $f(x) = \dd{\chi(t,x)}{t}|_{t=0}$. Ainsi, $f(x)$ est un champ de vecteur sur $\D$ où pour $x\in\D,f(x)\in\R^n$ correspond au vecteur tangent à la trajectoire en $t=0$.
|
||||
\end{prop}
|
||||
|
||||
\begin{exemple}
|
||||
Système linéaire $f(x)=\dd{e^{At}x}{t}|_{t=0}=Ax$
|
||||
\end{exemple}
|
||||
\emph{Nous avons défini une trajectoire, mais à partir de $\dot{x}=f(x)$, est-elle unique ?}
|
||||
|
||||
\begin{example}[Oscillateur de Van der Pol]
|
||||
\[
|
||||
\begin{cases}
|
||||
\dot{x_1} & = x_2\\ \dot{x_2} & = -x_1 + (1-x_ 1^2)x_2
|
||||
\end{cases}
|
||||
\]
|
||||
\section{Théorème du point fixe}
|
||||
|
||||
\begin{thm}[Point fixe]
|
||||
Soient $X$ un espace de Banach de norme $\|.\|$, $S$ un fermé de $X$ et $T:S\rightarrow S$ une application contractante sur $X$, i.e. $\exists \rho \in [0,1[$ tel que $\forall (x,y) \in S^2, ||T(x)-T(y)|| \leq \rho ||x-y||$,alors
|
||||
\[ \exists ! x^* \in S \text{ tel que } T(x^*)=x^*\]
|
||||
De plus, quelque soit la suite sur $S$ tel que $x_{n+1}=T(x_n)$, elle converge vers $ x^* $.
|
||||
\end{thm}
|
||||
|
||||
\begin{defin}
|
||||
Soit deux espaces métriques $(X,d_x)$ et $(Y,d_y)$ et une application $f:(X,d_x) \rightarrow (Y,d_y)$.
|
||||
On dit que $f$ est \emph{lipschitzienne} si $\exists \alpha > 0$ tel que
|
||||
\[\forall x,y \in X, \quad d_y(f(x),f(y)) \leq \alpha d_x(x,y)\]
|
||||
\end{defin}
|
||||
|
||||
Point d'équilibre $x^* =(0,0)$
|
||||
\begin{rem}
|
||||
Il n'existe pas de solution analytique aux équations de Van der Pol, mais numériquement on trouve un cycle limite stable.
|
||||
Une fonction lipschitzienne est uniformément continue.
|
||||
\end{rem}
|
||||
|
||||
%\img{0.3}{3/2.png}
|
||||
|
||||
$\exists \epsilon$ tel que le cycle limite $\subset$ cercle de centre (0,0) et de rayon $\epsilon$ : stable au sens de Lagrange.\\
|
||||
|
||||
\end{example}
|
||||
|
||||
\begin{thm}[Index de Poincaré]
|
||||
Dans le plan de phase( pour un système d'ordre 2) avec $N$ le nombre de noeuds, centre et foyer et $S$ le nombre de points selles.\\
|
||||
Si un cycle limite existe, les points d'équilibre que le cycle limite encrecle sont tel que
|
||||
\begin{thm}[Cauchy-Lipschitz]
|
||||
Soient le système dynamique défini par
|
||||
\[
|
||||
N =S +1
|
||||
\dot{x}(t)=f(x(t)) \text{ et } x(t_0)=x_0\tag{$\ast$}
|
||||
\]
|
||||
\end{thm}
|
||||
ce théorème s'utilise souvent sous sa forme contraposée:
|
||||
\begin{corol}
|
||||
Si $N\neq S+1$ alors il n'existe pas de cycle limite.
|
||||
\end{corol}
|
||||
|
||||
\begin{proof}~ \\
|
||||
\begin{lemme}
|
||||
Soit une courbe du plan de phase alors l'index de la courbe est la somme des index des points d'équilibre contenu dans cette courbe.
|
||||
\end{lemme}
|
||||
|
||||
À partir de cette proposition on peux démontrer le théorème de l'index de Poincaré, car le cycle limite $\mathcal{C}$ est solution de l'équation dynamique. l'index de $\mathcal{C}$ vaut +1. Ainsi le nombre de points d'équiliobre ayant l'index +1 doit être supérieur d'une unité à ceux dont l'index est -1
|
||||
\end{proof}
|
||||
|
||||
\section{Théorème de Bendixon}
|
||||
|
||||
\begin{thm}
|
||||
Soit le système du second ordre $\dot{x}=f(x)$ avec $f$ le champ de vecteurs tel que $f:D\rightarrow\R^2$ avec $D$ un ensemble simplement connexe (d'un seul tenant, non formé de la réunion d'ensemble disjoint, sans trous) de $\R^2$ ne contenant pas de point d'équilibre.
|
||||
Si:
|
||||
\begin{itemize}
|
||||
\item $\exists x \in D$ tel que $\divv f(x) \neq 0$
|
||||
\item $\divv f$ ne change pas de signe dans $D$
|
||||
\end{itemize}
|
||||
Alors $\dot{x}=f(x)$ n'a pas de cycle limite inclus dans $D$.
|
||||
Si $f:\D \rightarrow \R^n$ est lipschitzienne sur $\D$ alors \\
|
||||
$\forall x_0 \in \D, \exists \tau \in ]t_0,t_1[$ tel que $(\ast)$ a une unique solution $x:[t_0,\tau] \rightarrow \R^n$
|
||||
\end{thm}
|
||||
|
||||
\begin{proof}
|
||||
Par l'absurde, soit $\Gamma = \{x\in D, x(t), 0 \leq t \leq T\}$ est un cycle limite.
|
||||
Soient $T(x) = x_0 + \int_t^{t_0}f(s)ds$, $t\in[t_0,\tau] = x(t)$
|
||||
|
||||
$\forall x \in \Gamma$, $f(x)$ est tangent à $\Gamma$ tel que $f(x).n(x)=0$ où $n(x)$ est le vecteur normal de $\Gamma$ en $x$.
|
||||
et on définit $S = \{ x(t) \text{ tel que } t\in [t_0,\tau], ||x-x_0|| \leq r \}$
|
||||
|
||||
Suivant le théorème de Green,
|
||||
\[ \oint_{\Gamma} f(x)n(x)dx = \iint_S \divv f(x)dS \text{ donc } \iint_S \divv f(x)dS = 0
|
||||
\]
|
||||
Ainsi, $\forall x \in S$
|
||||
\begin{align*}
|
||||
||T(x) - x_0|| & = ||\int_{t_0}^t f(s)ds || \\
|
||||
& = || \int_{t_0}^t (f(s)-f(t_0)+f(t_0))ds || \\
|
||||
& \leq \int_{t_0}^t ||f(s)-f(t_0)||s + \int_{t_0}^t ||f(x_0)||ds \\
|
||||
& \leq (\alpha r + C) ds \quad (f \text{ lipsch. et } ||s-x_0|| \leq r) \\
|
||||
& \leq (\alpha r + C)(t-t_0) \leq r
|
||||
\end{align*}
|
||||
|
||||
Si $\exists x \in D$ tel que $\divv f(x) \neq 0$ et que $\div f$ ne change pas de signe dans $D$ (donc a fortiori dans $S\subset D$), on déduit de la continuité de l'opérateur $\divv f$ dans $D$ que $\iint_S \div f(x)dS \neq 0$ : contradictoire.
|
||||
$\exists \tau \in ]t_0,t_1[$ tel que $(\tau - t_0) \leq \frac{r}{\alpha r + C}$ donc $T:S\rightarrow S$.
|
||||
|
||||
Ainsi, $D$ ne contient pas de cycle limite.
|
||||
\begin{align*}
|
||||
\forall x,y \in S, \quad ||T(x)-T(y)|| & \leq \int_{t_0}^t || f(x(s))-f(y(s)) || ds \\
|
||||
& \leq \alpha \int_{t_0}^t || x(s) - y(s) || ds \\
|
||||
& \leq \alpha \max_{s\in [t_0,\tau]} ||x(s)-y(s)|| \int_{t_0}^t ds \\
|
||||
& \leq \alpha |||x(s)-y(s)||| (t-t_0) \quad \text{ avec } \|.\|=\max_{s\in [t_0,\tau]}(.)
|
||||
\end{align*}
|
||||
|
||||
On veut $\alpha (t-t_0) \leq \alpha (\tau - t_0) \leq \rho$ avec $\rho<1$ donc $|||T(x)-T(y)|| \leq \rho |||x-y|||$.
|
||||
|
||||
Il suffit de choisir $\tau$ tel que $\tau - t_0 \leq \frac{\rho}{\alpha}$
|
||||
|
||||
$T:S \rightarrow S$ est contractante pour $\tau - t_0 \leq \min \{ \frac{r}{\alpha r + C}, \frac{\rho}{\alpha} \}$
|
||||
|
||||
(*) a une unique trajectoire.
|
||||
\end{proof}
|
||||
|
||||
\begin{example}
|
||||
Soit le système NL du 2nd ordre $\ddot{x}(t) + \alpha \dot{x}(t) + g(x(t)) = 0$, avec $x(0) = x_0$ et $\dot{x}(0) = \dot{x}_0$ où $\alpha \neq 0$ et $g:\R \rightarrow \R$ continue avec $g(0)=0$. \\
|
||||
Représentation d'état :
|
||||
\[
|
||||
\begin{cases}
|
||||
\dot{x}_1(t) & = x_2(t) = f_1(x)\\
|
||||
\dot{x}_2(t) & = - \alpha x_2(t) - g(x_1(t)) = f_2(x)
|
||||
\end{cases}
|
||||
\text{ avec } x_1(t) = x(t) \text{ et }x_2(t) = \dot{x}(t) \]
|
||||
|
||||
Calculons $\div f = \derivp[f_1]{x_1} + \derivp[f_2]{x_2} = -\alpha$.
|
||||
|
||||
$\div f \neq 0$ et ne change pas de signe donc ce système ne comporte pas de cycle limite $(D=\R^2)$.
|
||||
\end{example}
|
||||
\section{Théorème de Poincaré-Bendixon}
|
||||
\paragraph{Rappel:}
|
||||
Dans le cas linéaire, le système $\dot{x} =A x $ est stable si toutes ses valeurs propres sont à partie réelle négative, il existe un unique point d'équilibre $\overline{x}$ stable tq $\dot{x} =0$ (si $\det(A) \neq 0$n $\overline{x}=0$).
|
||||
|
||||
\begin{defin}
|
||||
\begin{itemize}
|
||||
\item Un ensemble $\mathcal{M}\subset \mathcal{D}$ est dit \emph{positivement
|
||||
invariant} du système $\Sigma$ si
|
||||
\[\chi_t(\mathcal{M}) \subseteq \mathcal{M} , \forall t \ge 0\]
|
||||
\item Si la propriété est vraie $\forall t\le 0 $ l'ensembles est \emph{négativement invariant}.
|
||||
\item Si la propriété est vraie $\forall t\in \R$ . l'ensembles est \emph{invariant}
|
||||
\item Les points d'équilibre d'un système vérifient $\dot{x_{eq}} = 0$
|
||||
|
||||
\item Dans le cas non linéaire on peux avoir plusieurs points d'équilibre, isolés, voire une infinité, ou aucun.
|
||||
|
||||
\item La stabilité en non linéaire n'est pas une caractéristique du système mais d'un point (ou un ensemble de point) qui sont généralement les points d'équilibre.
|
||||
\end{itemize}
|
||||
\end{defin}
|
||||
\begin{rem}
|
||||
Un ensemble invariant est un fermé de $\R^n$.
|
||||
\end{rem}
|
||||
|
||||
\begin{exemple}[Pendule simple] \\
|
||||
|
||||
\begin{enumerate}
|
||||
\item
|
||||
\begin{figure}[H]
|
||||
\centering
|
||||
\begin{tikzpicture}
|
||||
\draw[decorate,decoration={border,amplitude=0.5cm,segment length=0.5cm}] (-2,0) -- (2,0);
|
||||
\draw[dashed,latex-] (0,0.5) -- (0,-3);
|
||||
\draw[very thick] (-2,0)-- (2,0);
|
||||
\draw[fill=white] (0,0) circle(0.2) node{$\bullet$} -- (-70:3)node{$\bullet$};
|
||||
\draw (0,-1) arc (-90:-70:1) node[midway,below]{$\theta$};
|
||||
\end{tikzpicture}
|
||||
\caption{Pendule simple}
|
||||
\end{figure}
|
||||
On a la représentation d'état ($x_1=\theta$,$x_2=\dot{\theta}$):
|
||||
\[
|
||||
\begin{cases}
|
||||
\dot{ x_1} = x_2\\
|
||||
\dot{x_2} = \frac{-g}{l}sin(x_1)-\frac{k}{m}x_2
|
||||
\end{cases}
|
||||
\]
|
||||
Les points d'équilibre vérifient $\dot{x_1}=\dot{x_2} = 0$ soit $x_1= k\pi$,$k\in\Z$. physiquement on a deux points : $0$ et $\pi$.
|
||||
|
||||
\item soit le système NL:
|
||||
\[
|
||||
\begin{cases}
|
||||
|
||||
\dot{x_1}= \alpha + \sin(x_1(t)+x_2(t))+x_1(t)\\
|
||||
\dot{x_2}=\alpha+ + \sin(x_1(t)+x_2(t))-x_1(t)
|
||||
\end{cases}
|
||||
\]
|
||||
Les point d'équilibre sont solutions de $\dot{x_1}=0$ et $\dot{x_2}=0$: on a pas de solution, en effet $\dot{x_1}+\dot{x_2} = 2\alpha+2\sin(x_1+x_2)$ pour $\alpha>1$
|
||||
\end{enumerate}
|
||||
|
||||
\end{exemple}
|
||||
|
||||
\begin{rem}
|
||||
Un cycle limite stable ou semi-stable est un cas particulier d'un ensemble invariant. Cet ensemble est un \emph{attracteur} et ne peut avoir qu'un comportement périodique.
|
||||
Les points d'équilibre peuvent aussi être déterminer dans le cas du régime forcé : $\dot{x}(t) = f(\overline{x},\overline{u}) = 0$
|
||||
\end{rem}
|
||||
|
||||
\section{Critère Qualitatif}
|
||||
|
||||
\paragraph{But}: Tracer les trajectoires $\chi(t,x_0),\forall x_0\in \D$ dans l'espace de phase $\R^n$ où $n$ est la dimension du système.
|
||||
|
||||
Cette méthode est réalisée pour les systèmes du second ordre ,plan de phase dans $\R^2$, voire dans $\R^3$. Les systèmes mécaniques sont des exemples typiques, notamment via les équation de Lagrange $\ddot{q} =l(q,\dot{q})$ avec $q$ coordonnées généralisées. même si le modèle est d'ordre $2n$ où $n = dim(q)$ on peux tracer les coordonnées deux à deux $x_1= q_i ,x_2 = \dot{q_i}$, dans le plan de phase.
|
||||
|
||||
\subsection{Méthode pour tracer les trajectoires}
|
||||
\begin{enumerate}
|
||||
\item Méthodes informatique :
|
||||
\begin{itemize}
|
||||
\item On utlise une intégration numérique pour différentes conditions initiale
|
||||
\item Graphe des pentes générés numériquement en étudiant $\deriv[x_1]{x_2} = \frac{f_1(x_1,x_2)}{f_2(x_1,x_2)}$
|
||||
\end{itemize}
|
||||
\item Méthode papier-crayon
|
||||
\begin{itemize}
|
||||
\item Méthode isocline : peut être manuelle et/ou numérique.
|
||||
\item Solution explicite des équations\\
|
||||
On élimine le temps de manière explicite ou non.
|
||||
\end{itemize}
|
||||
\end{enumerate}
|
||||
Dans l'analyse de la stabilité on s'interresse au comportement dans un voisinage du point d'équilibre.
|
||||
|
||||
\begin{defin}
|
||||
Un attracteur est un ensemble invariant fermé $\mathcal{M} \subset \mathcal{D}$ du système $\Sigma$, si il existe un voisinage $\mathcal{N}$ de $\mathcal{M}$ tel que
|
||||
\[
|
||||
\forall x\in \mathcal{N}, \chi_t(x) \in \mathcal{N}, \forall t \ge 0 et \chi_t(x) \xrightarrow[t\to\infty]{} \mathcal{M}^t
|
||||
\]
|
||||
Pour déterminer \emph{l'index topologique} on utilise la méthode suivante:
|
||||
\begin{enumerate}
|
||||
\item Une courbe autour du point d'équilibre choisie d'une manière arbitraire et supposée de taille infinitésimale
|
||||
\item Avec une paramétrisation dans le sens trigonométrique
|
||||
\item On considère une suite arbitraire de point $(x_n)$ dans le sens de la paramétrisation
|
||||
\item Pour chaque point $x_n$ on évalue $f(x_n$) où $f$ vérifie $\dot{x} =f(x)$.
|
||||
\item Tous les vecteurs $f(x_n)_{n=1...N}$ sont ramenés aux point d'équilibre.
|
||||
\end{enumerate}
|
||||
Ainsi \emph{l'index topologique} est la mesure de l'angle (modulo $2\pi$) que l'extrimité des vecteurs $(f(x_i))$ parcourt dans le sens trigonométrique.
|
||||
\end{defin}
|
||||
\begin{rem}
|
||||
Physiquement\footnote{\emph{sic.}} un attracteur est un fermé borné (compact)
|
||||
\end{rem}
|
||||
\begin{figure}
|
||||
\centering
|
||||
\begin{tikzpicture}
|
||||
\node (x) at (0,0) {$\bullet$} node[above]{$\overline{x}$};
|
||||
\draw (x) circle (1.5) (20:1.5) node[inputarrow,rotate=110]{};
|
||||
\foreach \a in {0,1,2,3,4,5,6,7}
|
||||
{\draw[red,-latex] (\a*45:1.5) -- ++(\a*45:0.5);
|
||||
\node at (\a*45:2.4){$f(x_\a)$}; }
|
||||
\node at (5,0){$\bullet$};
|
||||
\foreach \a in {0,1,2,3,4,5,6,7}
|
||||
{\draw[red,-latex] (5,0) -- ++(\a*45:0.8);
|
||||
\draw (5,0)++(\a*45:1.2)node{$f_\a$}; }
|
||||
\node at (5,0){$\bullet$};
|
||||
\node[draw,rectangle] at (10,0){index = +1};
|
||||
\end{tikzpicture}
|
||||
\begin{tikzpicture}
|
||||
\node (x) at (0,0) {$\bullet$} node[above]{$\overline{x}$};
|
||||
\draw (x) circle (1.5)(20:1.5) node[inputarrow,rotate=110]{};
|
||||
\foreach \a/\r in {0/1.2,1/1,2/1,3/1,4/1.2,5/1,6/1,7/1}
|
||||
{\draw[red,-latex] (\a*45:1.5) -- ++(-\a*45:0.5);
|
||||
\node at (\a*45:\r*2){$f(x_\a)$}; }
|
||||
\foreach \a in {0,1,2,3,4,5,6,7}
|
||||
{\draw[red,-latex] (5,0) -- ++(-\a*45:0.8);
|
||||
\draw (5,0)++(-\a*45:1.2)node{$f_\a$}; }
|
||||
\node at (5,0){$\bullet$};
|
||||
\node[draw,rectangle] at (10,0){index = -1};
|
||||
\end{tikzpicture}
|
||||
|
||||
\begin{thm}
|
||||
Soient le système du 2nd ordre $\dot{x}=f(x)$ et $O_{x_0}^+$ une trajectoire positive, i.e $O_{x_0}^+ = \{ x \in D, x = S(t,x_0), t \geq 0\}$ où $S(.,x) : \R \rightarrow D$ définit une solution de $\dot{x}=f(x)$ pour une trajectoire passant par $x$, avec un ensemble limite $\omega(x_0)$ i.e. $\omega(x_0) = \bigcap_{t \geq 0} \overline{O_{x_0}^+}$ \footnote{adhérence = plus petit fermé contenant l'ensemble}\\
|
||||
\begin{tikzpicture}
|
||||
\node (x) at (0,0) {$\bullet$} node[above]{$\overline{x}$};
|
||||
\draw (x) circle (1.5)(20:1.5) node[inputarrow,rotate=110]{};
|
||||
\foreach \a/\t/\r in {0/0/2.5,1/45/2.5,2/0/1.8,3/90/2,4/-45/2,5/45/1.8,6/0/1.8,7/90/2}
|
||||
{\draw[red,-latex] (\a*45:1.5) -- ++(\t:0.7);
|
||||
\node at (\a*45:\r){$f(x_\a)$}; }
|
||||
\foreach \a/\l in {0/137,1/26,2/4,7/5}
|
||||
{\draw[red,-latex] (5,0) -- ++(\a*45:0.8);
|
||||
\draw (5,0)++(\a*45:1.2)node{$f_{\l}$}; }
|
||||
\node at (5,0){$\bullet$};
|
||||
\node[draw,rectangle] at (10,0){index = 0};
|
||||
\end{tikzpicture}
|
||||
\caption{Détermination de l'index topologique}
|
||||
\end{figure}
|
||||
|
||||
Si $\omega(x_0)$ est compact et ne contient pas de point d'équilibre, alors la limite ne peut être qu'un cycle limite.\\
|
||||
\end{thm}
|
||||
Il reste maintenat à chercher les trajectoires autour des points d'équilibres.
|
||||
|
||||
Interprétation :
|
||||
|
||||
Dans le cas du 2nd ordre, si on a une convergence des trajectoires vers un compact (fermé borné de $\R^2$) qui ne contient pas de point d'équilibre, alors la limite ne peut être qu'un cycle limite.\\
|
||||
\paragraph{Examples du poly page 4} Système hybride = commutation entre 2 systèmes linéaires\\
|
||||
|
||||
|
||||
\begin{prop}
|
||||
\begin{itemize}
|
||||
\item $\omega_0$ définit un ensemble positivement invariant.
|
||||
\item Dans $\R^2$ le seul attracteur possible est un cycle limite.
|
||||
\item Si la trajectoire converge vers un ensemble alors on a les cas possibles:
|
||||
\begin{itemize}
|
||||
\item C'est un ensemble de points d'équilibres.
|
||||
\item C'est un cycle limite.
|
||||
\item La trajectoire est un cycle limite.
|
||||
\end{itemize}
|
||||
\end{itemize}
|
||||
\end{prop}
|
||||
|
||||
Exemple 1 :
|
||||
\subsection{Méthode isocline}
|
||||
Pour cette méthode, il s'agit de poser :
|
||||
\begin{align*}
|
||||
\dot{x} & =
|
||||
\begin{bmatrix}
|
||||
-1 & 10 \\-100 & -1 x = A_1x
|
||||
\end{bmatrix}\\
|
||||
\dot{x} & =
|
||||
\begin{bmatrix}
|
||||
-1 & 100 \\ -10 & -1 x = A_2x
|
||||
\end{bmatrix}
|
||||
\quad \text{v.p. } \lambda_{1,2} = -1 \pm j31,62
|
||||
\frac{dx_2}{dx_1}&= \frac{f_2(x)}{f_1(x)} = Cst \\
|
||||
\end{align*}
|
||||
C'est-à-dire de rechercher les points tel que la pente en $x$ est égale à une constante donnée.\\
|
||||
|
||||
Les deux systèmes sont stables
|
||||
|
||||
Stabilité locale mais le système est instable globalement.\\
|
||||
|
||||
Important : l'analyse faite par linéarisation donne uniquement une information sur la stabilité locale et non globale.\\
|
||||
|
||||
Exemple 2 :
|
||||
\begin{exemple}[Pendule inversé]
|
||||
Cas sans frottement : \[
|
||||
\begin{cases}
|
||||
x_1 &= \theta \\
|
||||
x_2 &= \dot{\theta}
|
||||
\end{cases}
|
||||
\Rightarrow
|
||||
\begin{cases}
|
||||
x_1 & =x_2\\
|
||||
x_2 & = -\frac{g}{l}sin(x_1)
|
||||
\end{cases}
|
||||
\]
|
||||
\smallbreak
|
||||
Les iso-clines vérifient donc :
|
||||
\begin{align*}
|
||||
\dot{x} & =
|
||||
\begin{bmatrix}
|
||||
1 &- 10\\100 & 1 x
|
||||
\end{bmatrix}
|
||||
= A_1x \\
|
||||
\dot{x} & =
|
||||
\begin{bmatrix}
|
||||
1 & -100\\10 & 1
|
||||
\end{bmatrix}
|
||||
x = A_2x \quad \text{v.p. } \lambda_{1,2} = -1 \pm j31,62
|
||||
\frac{dx_2}{dx_1}&= \frac{-\frac{g}{l}sin(x_1)}{x_2}\\
|
||||
&=C
|
||||
\intertext{donc les points décrivant la courbe ont pour équation:}
|
||||
x_2 &= -\frac{g}{lC}sin(x_1)
|
||||
\end{align*}
|
||||
On trace alors alors ces courbes pour différentes valeurs de constante et l'on obtient:
|
||||
\begin{center}
|
||||
\includegraphics[scale=0.4]{1/graph2.png}
|
||||
\end{center}
|
||||
|
||||
Les deux systèmes sont instables.
|
||||
|
||||
En choisissant bien la permutation, on rend le système global stable.
|
||||
|
||||
\paragraph{Conclusion} l'analyse de la stabilité par linéarisation ne donne pas une CNS de stabilité des systèmes non linéaires (point d'équilibre), d'où l'importance de définir un autre moyen d'analyse. \\
|
||||
L'iso-cline donne la pente de la trajectoire, ainsi, en suivant les pentes données d'iso-cline en iso-cline, on peut remonter à la trajectoire.\\
|
||||
A noter que pour $C$ infini on est sur l'axe de $x_1$ et pour $C$ nul sur celui de $x_2$.\\
|
||||
|
||||
\begin{rem}
|
||||
Il existe d'autres méthodes pour tracer les trajectoires dans le plan de phase.
|
||||
sans frottement on atteint un cycle limite tandis qu'avec frottement on tend bien vers l'origine.
|
||||
\end{rem}
|
||||
\end{exemple}
|
||||
|
||||
\begin{example}[Élimination du temps]
|
||||
\begin{multicols}{2}
|
||||
\noindent Méthode explicite :
|
||||
\subsection{Méthode par suppression temporelle}
|
||||
\subsubsection{Méthode explicite}
|
||||
À partir des solutions des équations différentielles on se débarasse de la paramétrisation temporelle pour obtenir la trajectoire:
|
||||
\begin{exemple}
|
||||
\[
|
||||
\begin{cases}
|
||||
x_1(t) & = x_0 \cos t + \dot{x}_0 \sin t\\x_2(t) & = -x_0 \sin t + x_0 \cos t
|
||||
\dot{x_1} = x_0 \cos(t) + \dot{x_0} \sin(t)\\
|
||||
\dot{x_2} = -x_0 \sin(t) + \dot{x_0} \cos(t)\\
|
||||
\end{cases}
|
||||
\]
|
||||
On a $\dot{x_1}^2+\dot{x_2}^2 = x_0^2+\dot{x_0}^2$ soit un cercle de rayon $\sqrt{x_0^2+\dot{x_0}^2}$
|
||||
\end{exemple}
|
||||
|
||||
\[x_1^2(t) + x_2^2(t) = x_0^2 + \dot{x}_0^2 \]
|
||||
On a éliminé le temps mais c'est assez \emph{spicifique} à la représentation d'état.
|
||||
\subsubsection{Méthode implicite}
|
||||
|
||||
\noindent Méthode implicite :
|
||||
\[ \dot{x} =
|
||||
\begin{bmatrix}
|
||||
0 & 1 \\ 1 & 0
|
||||
\end{bmatrix}
|
||||
x \text{ donc }
|
||||
Le temps est élimié à partir de l'équation différentielle puis l'orbite est obtenue par intégration
|
||||
\begin{exemple}
|
||||
\[
|
||||
\begin{cases}
|
||||
\dd{x_1}{t} & = x_2\\ \dd{x_2}{t} & = -x_1
|
||||
\dot{x_1}=x_2\\
|
||||
\dot{x_2} = -x_1
|
||||
\end{cases}
|
||||
\implies \frac{\d x_2}{x_2} =\d t = \frac{\d x_1}{x_1}
|
||||
\]
|
||||
\[dt = \frac{dx_1}{x_2} = -\frac{dx_2}{x_1}\]
|
||||
\[x_1dx_1 = -x_2dx_2 \text{ donc } x_1^2 + x_2^2 = x_{20}^2 + x_{10}^2\]
|
||||
\end{multicols}
|
||||
\end{example}
|
||||
Donc : \[
|
||||
\int_{x_20}^{x_2}x_2\d x_2 = - \int_{x_10}^{x_1}x_1\d x_1
|
||||
\]
|
||||
Ainsi on a : $ x_1^2+x_2^2 = x_{10}^2+x_{20}^2$.
|
||||
\end{exemple}
|
||||
|
||||
\begin{rem}
|
||||
Les méthodes par élimination du temps ne s'appliquent que pour les systèmes avec des dynamiques relativement simple.
|
||||
\end{rem}
|
||||
\end{document}
|
||||
|
||||
%%% Local Variables:
|
||||
|
|
|
@ -1,411 +1,382 @@
|
|||
\documentclass[main.tex]{subfiles}
|
||||
\begin{document}
|
||||
\section{Hypothèses}
|
||||
\begin{itemize}
|
||||
\item la non-linéarité est statique et n'évolue pas dans le temps. On peut la séparer de la dynamique du système. Par exemple, la saturation (ou la zone morte) est une non-linéarité statique.
|
||||
\item la partie dynamique (linéaire) est un filtre passe-bas \emph{suffisamment efficace} pour négliger les harmoniques d'ordre supérieur à 1. Plus précisément, l'ordre relatif du filtre doit être supérieur strict à 1.
|
||||
\end{itemize}
|
||||
Il s'agit de regarder la stabilité, la convergence vers un point d'équilibre,...\\
|
||||
On se place dans le cas présent en régime libre pour un système invariant, c'est à dire que $\dot{x} = f(x,u=0)$ et $y = g(x,u=0)$.\\
|
||||
|
||||
\section{Schéma-blocs}
|
||||
\[ x \longrightarrow \boxed{
|
||||
\begin{array}{c}
|
||||
\text{Non} \\
|
||||
\text{Linéarité}
|
||||
\end{array}
|
||||
} \longrightarrow y \longrightarrow \boxed{H(p)} \longrightarrow z \]
|
||||
La fonction de transfert $H(p)$ (fraction rationnelle) correspond à un filtre passe-bas de degré relatif $\geq 2$.\\
|
||||
\begin{rem}
|
||||
On pose $u=0$, car la stabilité et la dynamique du système sont des caractéristiques intrinsèques d'un système, donc indépendantes de l'entrée.\\
|
||||
\end{rem}
|
||||
|
||||
On prend $x=X\sin \omega t$. Dans le cas linéaire, seule la valeur de $\omega$ influe sur le tracé de la diagramme de Bode du système. Dans le cas non-linéaire, on a plusieurs tracés de réponses fréquentielles. Par exemple, avec une saturation, on obtient des réponses fréquentielles qui dépendent de l'amplitude d'entrée de $X$ dès qu'elle devient trop élevée.
|
||||
Pour étudier la stabilité, on se place dans le plan de phase. Celui-ci permet de situer les points d'équilibres et de vérifier la stabilité. Sa dimension est égale au nombre de variables d'état.
|
||||
|
||||
\begin{figure}[h!]
|
||||
\centering
|
||||
\includegraphics[scale=0.4]{2/424-1.png}
|
||||
\end{figure}
|
||||
Ainsi, pour des systèmes du second ordre, on va avoir:
|
||||
\[\begin{matrix}
|
||||
x= \begin{pmatrix}x_1\\x_2\end{pmatrix} &\text{et}& f(x)=\begin{pmatrix}f_1(x)\\f_2(x)\end{pmatrix}
|
||||
\end{matrix}\]
|
||||
L'espace des phases devient alors ici un plan de phase dans lequel on va rechercher les trajectoires.
|
||||
|
||||
Puisque $H(p)$ rejette les harmoniques d'ordre supérieur à 1, on peut donc décomposer \[y(t)=P \sin \omega t + Q \cos \omega t\]
|
||||
Dans la suite, on s'intéressera au cas de dimension deux pour positionner et comprendre le problème.
|
||||
|
||||
Dans le cas d'une NL symétrique, on a
|
||||
\section{Analyse qualitative du comportement}
|
||||
Soit le système LTI obtenu à partir de la linéarisation autour d'un point d'équilibre $x_0$.\\
|
||||
On dit que ce point d'équilibre est stable si c'est un point de convergence des trajectoire, ou instable si c'est un point de divergence des trajectoires.\\
|
||||
|
||||
On étudie donc le système autour de son point d'équilibre, en linéarisant son équation autour de ce point. On a donc l'équation:
|
||||
\begin{align*}
|
||||
P& =\frac{2}{T} \int_{[T]} y(t) \sin \omega t dt\\
|
||||
Q& =\frac{2}{T} \int_{[T]} y(t) \cos \omega t dt \quad \text{ avec } \omega T = 2\pi
|
||||
\Aboxed{\delta \dot{x}&= A \delta x}\\
|
||||
\text{où, } A&= \frac{\partial f(x)}{\partial x}|_{x=x_0} \text{ Jacobien de f en $x_0$}\\
|
||||
\text{et, }\delta x &= x-x_0
|
||||
\end{align*}
|
||||
|
||||
\begin{rem}
|
||||
Si la NL est non-symétrique, $y(t) = Y+P\sin \omega t + Q \cos \omega t$ avec $Y=\frac{1}{T}\int_{[T]} y(t) dt$. La composante continue $Y$ peut être négligée pour l'analyse de stabilité et modélisée par une perturbation constante à l'entrée de $H(p)$.
|
||||
En N.L, la stabilité est associée aux points d'équilibre. Ainsi, un même système N.L peut avoir des points d'équilibre stables et instable.
|
||||
\end{rem}
|
||||
\begin{rem}
|
||||
Cette approximation peux être réalisé dna sle cas d'un régime forcé:
|
||||
\[
|
||||
\begin{cases}
|
||||
\dot{x} = f(x,u)\\
|
||||
y = h(x,u)
|
||||
\end{cases}
|
||||
\]
|
||||
avec $f(\bar{x},\bar{u}) = 0$ et on alors:
|
||||
\[
|
||||
\begin{cases}
|
||||
f(\bar{x}+\delta x,\bar{u}+\delta u) = f(\bar{x},\bar{u}) + A. \delta x + B \delta u\\
|
||||
h(\bar{x}+\delta x,\bar{u}+\delta u) = h(\bar{x},\bar{u}) + C. \delta x + D \delta u
|
||||
\end{cases}
|
||||
\]
|
||||
Donc :
|
||||
\[
|
||||
\begin{cases}
|
||||
\delta \dot{x} = A. \delta x + B. \delta u \\
|
||||
\delta \dot{u} = C. \delta x + D. \delta u
|
||||
\end{cases}
|
||||
\]
|
||||
\end{rem}
|
||||
\emph{L'analyse qualitative de la stabilité est faite par linéarisation.} \\
|
||||
\begin{prop}
|
||||
La trajectoire pour une condition initiale $\delta x_0$ est solution de l'équation différentielle précédente, ie \[\delta x(t) = M exp(Jt)M^{-1}\delta x_0\] où J est la matrice diagonale ou de Jordan de A, la matrice d'évolution, et M la matrice de vecteurs propres tel que : $M^{-1}AM = J$.\\
|
||||
\end{prop}
|
||||
\subsection{Cas $\mathbb{R}$}
|
||||
$J = \begin{pmatrix}
|
||||
\lambda_1 &0 \\0&\lambda_2
|
||||
\end{pmatrix}$ où $\lambda_1 \neq \lambda_2$\\
|
||||
On pose le changement de variable $\delta z = M^{-1}\delta x$ : Base Modale.\\ Donc on a $\delta z_0 = M^{-1}\delta x_0$ comme valeur initiales, d'où :
|
||||
\begin{align*}
|
||||
\delta z_1(t) &= e^{\lambda_1t}\delta z_{01}\\
|
||||
\delta z_2(t) &= e^{\lambda_2t}\delta z_{02}
|
||||
\end{align*}
|
||||
Ceci permet de tracer les trajectoires dans la base modale.\\
|
||||
|
||||
\begin{enumerate}
|
||||
|
||||
\item Dans le cas où $\lambda_2 < \lambda_1 < 0$ ou $0 < \lambda_1 < \lambda_2$, on obtient:
|
||||
\begin{center}
|
||||
\includegraphics[scale=0.5]{1/graph3.png}
|
||||
\end{center}
|
||||
D'un coté on à la convergence plus rapide de $\delta z_2$ par rapport à $\delta z_1$ et de l'autre la divergence plus rapide de $\delta z_2$ par rapport à $\delta z_1$. On a un \emph{noeud} qui est donc soit stable soit instable. Et son \emph{index topologique vaut $+1$}\\
|
||||
|
||||
\item Dans le cas où $\lambda_2 < 0 < \lambda_1 $, on obtient:
|
||||
\begin{center}
|
||||
\includegraphics[scale=0.5]{1/graph4.png}
|
||||
\end{center}
|
||||
On est dans un cas instable et on a un point selle, d'index $-1$ \\
|
||||
|
||||
|
||||
\item Dans le cas ou $\lambda_1 = 0$, on a:
|
||||
\begin{align*}
|
||||
\delta z_1 &= \delta z_{01}\\
|
||||
\delta z_2 &= e^{\lambda t} \delta z_{02}
|
||||
\end{align*}
|
||||
d'où le graphique:
|
||||
\begin{center}
|
||||
\includegraphics[scale=0.5]{1/graph6.png}
|
||||
\end{center}
|
||||
Il n'y a pas de point d'équilibre car A est non inversible ce qui implique que $\dot{x}=Ax \Rightarrow x=0$\\
|
||||
|
||||
\begin{rem}
|
||||
Il n'y a pas de point d'équilibre d'après la définition $ \dot{x} = 0$ même si graphiquement on converge vers un point.
|
||||
\end{rem}
|
||||
|
||||
\item Dans le cas où $\lambda_1 = \lambda_2 = \lambda$\\
|
||||
Si $J = \begin{pmatrix}\lambda & 0 \\ 0 & \lambda\end{pmatrix}$ le sous espace propre est de dimension 2.\\
|
||||
On a un point d'équilibre.
|
||||
|
||||
|
||||
Si la dimension du sous espace propre est de 1, $J = \begin{pmatrix}\lambda & 1 \\ 0 & \lambda\end{pmatrix}$, donc :
|
||||
\begin{align*}
|
||||
\delta z_1 &= t e^{\lambda t} \delta z_{01} + e^{\lambda t} \delta z_{02}\\
|
||||
\delta z_2 &= e^{\lambda t} \delta z_{02}
|
||||
\end{align*}
|
||||
\begin{center}
|
||||
\includegraphics[scale=0.5]{1/graph5.png}
|
||||
\end{center}
|
||||
|
||||
\end{enumerate}
|
||||
|
||||
|
||||
\subsection{Cas $\mathbb{C}$}
|
||||
On a maintenant $\lambda_{1,2} = \alpha \pm j\beta$. On considère la représentation d'état : $\delta \dot{z_1} = M^{-1} \delta x$ tel que :
|
||||
\begin{align*}
|
||||
\delta \dot{z_1} &= \alpha \delta z_1 - \beta \delta z_2\\
|
||||
\delta \dot{z_2} &= \beta \delta z_1 + \alpha \delta z_2
|
||||
\intertext{On utilise les coordonnées polaires :}
|
||||
r = \sqrt{\delta z_1^2 + \delta z_2^2} &\text{ et, } \theta = arctan\left(\frac{\delta z_2}{\delta z_1}\right)
|
||||
\intertext{on a donc :}
|
||||
\dot{\theta} &= \beta\\
|
||||
\dot{r} &= \alpha r
|
||||
\end{align*}
|
||||
Ainsi, on obtient :
|
||||
\[\left \{ \begin{matrix}
|
||||
\theta(t) = \theta_0 + \beta t\\
|
||||
r(t) = e^{\alpha t} r_0
|
||||
\end{matrix}\right.\]
|
||||
|
||||
\begin{center}
|
||||
\includegraphics[scale=0.5]{1/graph7.png}
|
||||
\end{center}
|
||||
\[
|
||||
\begin{cases}
|
||||
\delta z_1(t) & = e^{\lambda t} \\
|
||||
\delta z_{10} + te^{\lambda t} \delta z_{20}\\
|
||||
\delta z_2(t) & = e^{\lambda t} \delta z_{20}
|
||||
\end{cases}
|
||||
\]
|
||||
\nopagebreak[1]
|
||||
\section{Cycle limite}
|
||||
\begin{defin}
|
||||
On définit le \emph{gain complexe équivalent}:
|
||||
\[ N(X) = \frac{P+jQ}{X} \text{ qu'on note } N(X) = N_P(X) + jN_Q(X) \]
|
||||
Un système $\dot{x}=f(x)$ possède un \emph{cycle limite} $\mathcal{C}$ si il existe un intervalle de temps $[t_0,t_0+T]$ et $\forall x_0 \in \mathcal{C}$ tel que la trajectoire $\chi(t,x_0)$ soit solution de $\dot{x}=f(x)$ et avec $\chi(t_0,x_0)=x_0$et vérifie :
|
||||
\begin{itemize}
|
||||
\item $N_P(X)=\frac{P}{X}$ est la gain en phase,
|
||||
\item $N_Q(X)=\frac{Q}{X}$ est la gain en quadrature.
|
||||
\item $\chi(t,x_0) \in \mathcal{C} \forall t\in[t_0,t_0+T[$
|
||||
\item $\chi(t_0+T,x_0) =x_0$
|
||||
\end{itemize}
|
||||
\end{defin}
|
||||
|
||||
|
||||
On considère un système oscillant, c'est à dire qu'il existe $T>0$ tel que $\forall t > 0$, $x(t+T) = x(t)$.\\
|
||||
(On exclut cependant le cas $x(t)$ = constante).
|
||||
\begin{rem}
|
||||
\begin{itemize}
|
||||
\item À la différence du système linéaire, pour une même pulsation, on a plusieurs réponses fréquentielles qui dépendent de l'amplitude de l'entrée $X$. L'analyse de stabilité doit donc se faire par rapport à tous les tracés.
|
||||
|
||||
% Inclure le nyquist du génie
|
||||
|
||||
\item Les manipulations de schéma-blocs doivent satisfaire les règles connues (principe de superposition) et s'assurer que le signal en amont du bloc NL est le même, et en aval, qu'il est suffisamment filtré pour ne garer que le 1er harmonique.
|
||||
|
||||
\begin{example}
|
||||
\begin{figure}[h!]
|
||||
\centering
|
||||
\begin{tikzpicture}
|
||||
\sbEntree{E}
|
||||
|
||||
\sbComp[3]{comp}{E}
|
||||
\sbRelier[$e$]{E}{comp}
|
||||
|
||||
\sbBloc[2]{C}{$C(p)$}{comp}
|
||||
\sbRelier{comp}{C}
|
||||
|
||||
\sbBloc[2]{NL}{Non-linéarité}{C}
|
||||
\sbRelier[$x$]{C}{NL}
|
||||
|
||||
\sbBloc[2]{sys}{$H(p)$}{NL}
|
||||
\sbRelier{NL}{sys}
|
||||
|
||||
\sbSortie[2]{S}{sys}
|
||||
\sbRelier{sys}{S}
|
||||
|
||||
\sbRenvoi{sys-S}{comp}{}
|
||||
|
||||
\end{tikzpicture}
|
||||
\[
|
||||
\Updownarrow
|
||||
\]
|
||||
\begin{tikzpicture}
|
||||
\sbEntree{E}
|
||||
|
||||
\sbBloc[3]{C}{$C(p)$}{E}
|
||||
\sbRelier[$e$]{E}{C}
|
||||
|
||||
\sbComp[4]{comp}{C}
|
||||
\sbRelier{C}{comp}
|
||||
|
||||
\sbBloc[2]{NL}{Non-linéarité}{comp}
|
||||
\sbRelier[$x$]{comp}{NL}
|
||||
|
||||
\sbBloc[2]{sys}{$H(p)$}{NL}
|
||||
\sbRelier{NL}{sys}
|
||||
|
||||
\sbSortie[2]{S}{sys}
|
||||
\sbRelier{sys}{S}
|
||||
|
||||
\sbDecaleNoeudy[4]{S}{R}
|
||||
\sbBlocr[8]{Cr}{$C(p)$}{R}
|
||||
\sbRelieryx{sys-S}{Cr}
|
||||
\sbRelierxy{Cr}{comp}
|
||||
\end{tikzpicture}
|
||||
\[
|
||||
\Updownarrow\hspace{-0.8em}/
|
||||
\]
|
||||
\begin{tikzpicture}
|
||||
\sbEntree{E}
|
||||
|
||||
\sbComp[3]{comp}{E}
|
||||
\sbRelier[$e$]{E}{comp}
|
||||
|
||||
\sbBloc[4]{NL}{Non-linéarité}{comp}
|
||||
\sbRelier[$\hat{x}\neq x$]{comp}{NL}
|
||||
|
||||
\sbBloc[2]{sys}{$H(p)C(p)$}{NL}
|
||||
\sbRelier{NL}{sys}
|
||||
|
||||
\sbSortie[2]{S}{sys}
|
||||
\sbRelier{sys}{S}
|
||||
|
||||
\sbRenvoi{sys-S}{comp}{}
|
||||
|
||||
\end{tikzpicture}
|
||||
\caption{Transformations de schéma-blocs}
|
||||
\end{figure}
|
||||
|
||||
\end{example}
|
||||
\end{itemize}
|
||||
Un point d'équilibre peut être interpréter comme un cycle limite singleton $ \forall T\in\R$.
|
||||
\end{rem}
|
||||
|
||||
\newpage
|
||||
\section{Analyse de la stabilité.}
|
||||
|
||||
Système NL bouclé à retour unitaire
|
||||
|
||||
\begin{figure}[h!]
|
||||
\centering
|
||||
\begin{tikzpicture}
|
||||
\sbEntree{E}
|
||||
|
||||
\sbComp[4]{comp}{E}
|
||||
\sbRelier[$e$]{E}{comp}
|
||||
|
||||
\sbBloc[4]{NL}{$N(X)$}{comp}
|
||||
\sbRelier[$x$]{comp}{NL}
|
||||
|
||||
\sbBloc[4]{sys}{$T_{BO}(p)$}{NL}
|
||||
\sbRelier{NL}{sys}
|
||||
|
||||
\sbSortie[4]{S}{sys}
|
||||
\sbRelier{sys}{S}
|
||||
|
||||
\sbRenvoi{sys-S}{comp}{}
|
||||
|
||||
\end{tikzpicture}
|
||||
\end{figure}
|
||||
|
||||
Dans l'analyse harmonique, la NL est modélisée par $N(X)$. Ainsi, il faut trouver l'expression de $N(X)$ en fonction de la NL :
|
||||
|
||||
\begin{exemple}[saturation]
|
||||
|
||||
\begin{figure}[h!]
|
||||
\centering
|
||||
\begin{tikzpicture}
|
||||
\begin{axis}
|
||||
[axis lines =middle,
|
||||
width=8cm, height=6cm,
|
||||
xlabel=$X$,ylabel=$Y$,
|
||||
xtick={-2,2},xticklabels={$-X_m$,$X_m$},
|
||||
ytick={-1.5,1.5},yticklabels={$-Y_m$,$Y_m$},
|
||||
ymin=-3,ymax=3, xmin=-5,xmax=5,
|
||||
]
|
||||
\addplot[no marks,black] plot coordinates
|
||||
{(-4,-1.5) (-2,-1.5) (2,1.5) (4,1.5)};
|
||||
\addplot[no marks,dashed,black] plot coordinates
|
||||
{(-2,0) (-2,-1.5) (0,-1.5)};
|
||||
\addplot[no marks,dashed,black] plot coordinates
|
||||
{(2,0) (2,1.5) (0,1.5)};
|
||||
\end{axis}
|
||||
|
||||
\begin{axis}[at ={(8cm,0cm)},
|
||||
width=10cm,height=6cm,
|
||||
axis lines =middle,
|
||||
xlabel=$t$,ylabel=$X$,
|
||||
xtick={1,2,3.1415},xticklabels={$t_1$,$\frac{\pi}{\omega}-t_1$,$\frac{\pi}{\omega}$},
|
||||
ytick={-2.1,2.1},yticklabels={$-X_m$,$X_m$},
|
||||
ymin=-3,ymax=3, xmin=0,xmax=7,
|
||||
domain=0:7,
|
||||
]
|
||||
\addplot[no marks,black,smooth,dashed] {2.5*sin(deg(x))};
|
||||
\addplot[thick, no marks,domain=0:1]{2.5*sin(deg(x))};
|
||||
\addplot[thick, no marks,domain=2.1415:4.1415]{2.5*sin(deg(x))};
|
||||
\addplot[thick, no marks,domain=5.283:7]{2.5*sin(deg(x))};
|
||||
\addplot[thick, no marks] coordinates {(1,2.1) (2.1415,2.1)};
|
||||
\addplot[thick, no marks] coordinates {(4.1415,-2.1) (5.283,-2.1)};
|
||||
\end{axis}
|
||||
\end{tikzpicture}
|
||||
\end{figure}
|
||||
|
||||
Calcul de $N(X)$ :
|
||||
|
||||
Pour $0 \leq t \leq t_1$ : $y(t) = X\sin \omega t$
|
||||
|
||||
$t_1 \leq t \leq \frac{\pi}{\omega}-t_1$ : $y(t) = X_m = X\sin \omega t_1$
|
||||
|
||||
\begin{align*}
|
||||
P & = \frac{4\omega}{\pi} \int_0^{\frac{\pi}{2\omega}} y(t) \sin \omega t dt \\
|
||||
& = \frac{4\omega}{\pi} [ \int_0^{t_1} X \sin^2 \omega t dt + \int_{t_1}^{\frac{\pi}{2\omega}} X \sin \omega t_1 \sin \omega t dt ] \\
|
||||
& = \frac{2X}{\pi}[ \omega t_1 + \frac{\sin 2\omega t_1}{2} ] \\
|
||||
\intertext{ $t_1=\arcsin(\frac{X_m}{X})$ et $Q=0$}
|
||||
\intertext{Ainsi}
|
||||
N(x) & =
|
||||
\begin{cases}
|
||||
1 & \si X << X_m\\
|
||||
\frac{2}{\pi}[\arcsin\frac{X_m}{X}+\frac{X_m}{X}\sqrt{1-\frac{X_m^2}{X^2}}] & \si X > X_m
|
||||
\end{cases}
|
||||
\end{align*}
|
||||
\begin{prop}
|
||||
Le dénominateur de la BF, $1+N(X)T_{BO}(p)$, donne la limite de stabilité : \[T_{BO}(j\omega) = - \frac{1}{N(X)}\]
|
||||
\begin{description}
|
||||
\item[Cycle limite stable]~\\
|
||||
Pour toutes les conditions initiales appartenant au voisinage du cycle limite.
|
||||
\[\exists t_0 > 0 \text{ et }T > 0 \text{ tel que } \forall t>t_0, \quad x(t+T) = x(t)\]
|
||||
i.e. toute trajectoire dans un voisinage du cycle limite converge dans un temps fini vers le cycle limite.
|
||||
\item[Cycle limite instable]~\\
|
||||
Toutes les trajectoires divergent du cycle limite.\\
|
||||
Pour toutes les CI n'appartenant pas au cycle limite, $ \exists t > 0 \text{ tel que} x(t) \notin \text{cycle limite} $.
|
||||
|
||||
Le lieu critique remplace le point critique $-1$.
|
||||
\item[Cycle semi-stable]~\\
|
||||
Une partie des trajectoires converge et d'autres divergent du cycle limite.
|
||||
\end{description}
|
||||
\end{prop}
|
||||
On a donc pour notre exemple de saturation
|
||||
|
||||
\begin{figure}[h!]
|
||||
\centering
|
||||
\begin{tikzpicture}
|
||||
\begin{axis}
|
||||
[axis lines= middle,
|
||||
xmin=-4,xmax=3,ymin=-2,ymax=3,ticks=none,
|
||||
xlabel=$Re$,ylabel=$Im$]
|
||||
\addplot[smooth,tension=1,-latex] coordinates {(-2.5,-3) (-2,0) (-1,1.5)};
|
||||
\addplot[smooth,tension=1]coordinates{ (-1,1.5) (-0.3,1.2) (0,0)};
|
||||
\addplot[smooth,thick,|-latex] coordinates {(-2.5,0) (-4,0)};
|
||||
\node[above] at (axis cs:-1,1.5) {$T_{BO}(j\omega)$};
|
||||
\node[below] at (axis cs: -3,0) {$-\frac{1}{N(X)}$};
|
||||
\end{axis}
|
||||
\end{tikzpicture}
|
||||
\caption{INSTABLE}
|
||||
\end{figure}
|
||||
|
||||
\end{exemple}
|
||||
|
||||
Ainsi dans le cas NL, on remplace le point critique $-1$ par le lieu critique $\frac{-1}{N(X)}$. Par conséquent, l'analyse de stabilité est réalisée par rapport à $\frac{-1}{N(X)}$.
|
||||
On a alors deux cas
|
||||
\begin{enumerate}
|
||||
\item
|
||||
Dans le cas où le tracé de Nyquist ne présente \emph{pas d'intersection avec le lieu critique}
|
||||
|
||||
on applique le critère de Nyquist ($ N_{\frac{1}{N(Y)}^{+}} = P^T_{T_{BO}}$) pour la stabilité ou celui du revers sur la FT, qui est alors stable, strictement propre et à déphasage minimal.
|
||||
|
||||
\item Si on a une ou plusieurs intersections, on a un régime auto-oscillant (cycle limite). $x(t) = X_0 e^{j\omega_0 t}$
|
||||
\end{enumerate}
|
||||
\section{Étude de la stabilité du cycle limite}
|
||||
|
||||
Soit $(X_0,\omega_0)$ solution de $T_{B0}(j\omega_0)=-\frac{1}{N(X_0)}$ sur son cycle limite :
|
||||
\begin{example}[Oscillateur de Van der Pol]
|
||||
\[
|
||||
x(t)= X_0e^{j\omega_0t}
|
||||
\begin{cases}
|
||||
\dot{x_1} & = x_2\\ \dot{x_2} & = -x_1 + (1-x_ 1^2)x_2
|
||||
\end{cases}
|
||||
\]
|
||||
|
||||
\subsection{Critère analytique}
|
||||
Point d'équilibre $x^* =(0,0)$
|
||||
\begin{rem}
|
||||
Il n'existe pas de solution analytique aux équations de Van der Pol, mais numériquement on trouve un cycle limite stable.
|
||||
\end{rem}
|
||||
|
||||
On pose \[T_{B0}(j\omega)+\frac{1}{N(X_0)}=R(\omega,X)+jI(\omega,X) = 0\]
|
||||
%\img{0.3}{3/2.png}
|
||||
|
||||
Ainsi, on a \[R(\omega_0,X_0)=0 \text{ et }I(\omega_0,X_0)=0\]
|
||||
Pour analyser la stabilité on applique À $t_0$ une perturbation :
|
||||
\[X_1 = X_0 + \delta X \text{ et }\omega_1 = \omega_0+\delta \omega \quad \text{ avec } |\frac{\delta X}{X_0}|<<1 \text{ et }|\frac{\delta \omega}{\omega_0}|<<1 \]
|
||||
$\exists \epsilon$ tel que le cycle limite $\subset$ cercle de centre (0,0) et de rayon $\epsilon$ : stable au sens de Lagrange.\\
|
||||
|
||||
$x(t)$ n'est plus périodique (plus d'intersection avec le lieu critique) et présente ainsi un amortissement $m>0$ (stable) ou $<0$ (instable).
|
||||
\end{example}
|
||||
|
||||
\[ x(t) = (X_0 + \delta X) e^{-mt} e^{j(\omega_0 + \delta \omega) t} =(X_0 + \delta X) e^{j(\omega_0 + \delta \omega + jm) t} \]
|
||||
\begin{thm}[Index de Poincaré]
|
||||
Dans le plan de phase( pour un système d'ordre 2) avec $N$ le nombre de noeuds, centre et foyer et $S$ le nombre de points selles.\\
|
||||
Si un cycle limite existe, les points d'équilibre que le cycle limite encrecle sont tel que
|
||||
\[
|
||||
N =S +1
|
||||
\]
|
||||
\end{thm}
|
||||
ce théorème s'utilise souvent sous sa forme contraposée:
|
||||
\begin{corol}
|
||||
Si $N\neq S+1$ alors il n'existe pas de cycle limite.
|
||||
\end{corol}
|
||||
|
||||
Ainsi la perturbation nous donne un régime auto-oscillant avec une amplitude $X_0+\delta X$ et une \emph{pulsation complexe} $\omega_0 + \delta \omega + jm$.
|
||||
\begin{proof}~ \\
|
||||
\begin{lemme}
|
||||
Soit une courbe du plan de phase alors l'index de la courbe est la somme des index des points d'équilibre contenu dans cette courbe.
|
||||
\end{lemme}
|
||||
|
||||
\[ R(\omega_0+\delta \omega + jm, X_0 + \delta X) + jI(\omega_0 + \delta \omega + jm,X_0 + \delta X) = 0 \]
|
||||
À partir de cette proposition on peux démontrer le théorème de l'index de Poincaré, car le cycle limite $\mathcal{C}$ est solution de l'équation dynamique. l'index de $\mathcal{C}$ vaut +1. Ainsi le nombre de points d'équiliobre ayant l'index +1 doit être supérieur d'une unité à ceux dont l'index est -1
|
||||
\end{proof}
|
||||
|
||||
\newcommand{\zero}{(\omega_0,X_0)}
|
||||
On applique un DL du 1er ordre autour de $\zero$ :
|
||||
\[ \left(\left.\derivp[R]{X}\right|_{\zero} + j \left.\derivp[I]{X}\right|_{\zero}\right) \delta X + \left(\left.\derivp[R]{\omega}\right|_{\zero} + j \left.\derivp[I]{\omega}\right|_{\zero}\right)(\delta \omega + jm)\approx 0 \]
|
||||
i.e. en notant $\left.\derivp[]{X}\right|_{\zero}=\left.\derivp[]{X}\right|_0$
|
||||
\section{Théorème de Bendixon}
|
||||
|
||||
\begin{thm}
|
||||
Soit le système du second ordre $\dot{x}=f(x)$ avec $f$ le champ de vecteurs tel que $f:D\rightarrow\R^2$ avec $D$ un ensemble simplement connexe (d'un seul tenant, non formé de la réunion d'ensemble disjoint, sans trous) de $\R^2$ ne contenant pas de point d'équilibre.
|
||||
Si:
|
||||
\begin{itemize}
|
||||
\item $\exists x \in D$ tel que $\divv f(x) \neq 0$
|
||||
\item $\divv f$ ne change pas de signe dans $D$
|
||||
\end{itemize}
|
||||
Alors $\dot{x}=f(x)$ n'a pas de cycle limite inclus dans $D$.
|
||||
\end{thm}
|
||||
|
||||
\begin{proof}
|
||||
Par l'absurde, soit $\Gamma = \{x\in D, x(t), 0 \leq t \leq T\}$ est un cycle limite.
|
||||
|
||||
$\forall x \in \Gamma$, $f(x)$ est tangent à $\Gamma$ tel que $f(x).n(x)=0$ où $n(x)$ est le vecteur normal de $\Gamma$ en $x$.
|
||||
|
||||
Suivant le théorème de Green,
|
||||
\[ \oint_{\Gamma} f(x)n(x)dx = \iint_S \divv f(x)dS \text{ donc } \iint_S \divv f(x)dS = 0
|
||||
\]
|
||||
|
||||
Si $\exists x \in D$ tel que $\divv f(x) \neq 0$ et que $\div f$ ne change pas de signe dans $D$ (donc a fortiori dans $S\subset D$), on déduit de la continuité de l'opérateur $\divv f$ dans $D$ que $\iint_S \div f(x)dS \neq 0$ : contradictoire.
|
||||
|
||||
Ainsi, $D$ ne contient pas de cycle limite.
|
||||
\end{proof}
|
||||
|
||||
\begin{example}
|
||||
Soit le système NL du 2nd ordre $\ddot{x}(t) + \alpha \dot{x}(t) + g(x(t)) = 0$, avec $x(0) = x_0$ et $\dot{x}(0) = \dot{x}_0$ où $\alpha \neq 0$ et $g:\R \rightarrow \R$ continue avec $g(0)=0$. \\
|
||||
Représentation d'état :
|
||||
\[
|
||||
\begin{cases}
|
||||
\dot{x}_1(t) & = x_2(t) = f_1(x)\\
|
||||
\dot{x}_2(t) & = - \alpha x_2(t) - g(x_1(t)) = f_2(x)
|
||||
\end{cases}
|
||||
\text{ avec } x_1(t) = x(t) \text{ et }x_2(t) = \dot{x}(t) \]
|
||||
|
||||
Calculons $\div f = \derivp[f_1]{x_1} + \derivp[f_2]{x_2} = -\alpha$.
|
||||
|
||||
$\div f \neq 0$ et ne change pas de signe donc ce système ne comporte pas de cycle limite $(D=\R^2)$.
|
||||
\end{example}
|
||||
\section{Théorème de Poincaré-Bendixon}
|
||||
|
||||
\begin{defin}
|
||||
\begin{itemize}
|
||||
\item Un ensemble $\mathcal{M}\subset \mathcal{D}$ est dit \emph{positivement
|
||||
invariant} du système $\Sigma$ si
|
||||
\[\chi_t(\mathcal{M}) \subseteq \mathcal{M} , \forall t \ge 0\]
|
||||
\item Si la propriété est vraie $\forall t\le 0 $ l'ensembles est \emph{négativement invariant}.
|
||||
\item Si la propriété est vraie $\forall t\in \R$ . l'ensembles est \emph{invariant}
|
||||
\end{itemize}
|
||||
\end{defin}
|
||||
\begin{rem}
|
||||
Un ensemble invariant est un fermé de $\R^n$.
|
||||
\end{rem}
|
||||
|
||||
\begin{rem}
|
||||
Un cycle limite stable ou semi-stable est un cas particulier d'un ensemble invariant. Cet ensemble est un \emph{attracteur} et ne peut avoir qu'un comportement périodique.
|
||||
\end{rem}
|
||||
|
||||
\begin{defin}
|
||||
Un attracteur est un ensemble invariant fermé $\mathcal{M} \subset \mathcal{D}$ du système $\Sigma$, si il existe un voisinage $\mathcal{N}$ de $\mathcal{M}$ tel que
|
||||
\[
|
||||
\forall x\in \mathcal{N}, \chi_t(x) \in \mathcal{N}, \forall t \ge 0 et \chi_t(x) \xrightarrow[t\to\infty]{} \mathcal{M}^t
|
||||
\]
|
||||
\end{defin}
|
||||
\begin{rem}
|
||||
Physiquement\footnote{\emph{sic.}} un attracteur est un fermé borné (compact)
|
||||
\end{rem}
|
||||
|
||||
\begin{thm}
|
||||
Soient le système du 2nd ordre $\dot{x}=f(x)$ et $O_{x_0}^+$ une trajectoire positive, i.e $O_{x_0}^+ = \{ x \in D, x = S(t,x_0), t \geq 0\}$ où $S(.,x) : \R \rightarrow D$ définit une solution de $\dot{x}=f(x)$ pour une trajectoire passant par $x$, avec un ensemble limite $\omega(x_0)$ i.e. $\omega(x_0) = \bigcap_{t \geq 0} \overline{O_{x_0}^+}$ \footnote{adhérence = plus petit fermé contenant l'ensemble}\\
|
||||
|
||||
Si $\omega(x_0)$ est compact et ne contient pas de point d'équilibre, alors la limite ne peut être qu'un cycle limite.\\
|
||||
\end{thm}
|
||||
|
||||
Interprétation :
|
||||
|
||||
Dans le cas du 2nd ordre, si on a une convergence des trajectoires vers un compact (fermé borné de $\R^2$) qui ne contient pas de point d'équilibre, alors la limite ne peut être qu'un cycle limite.\\
|
||||
\paragraph{Examples du poly page 4} Système hybride = commutation entre 2 systèmes linéaires\\
|
||||
|
||||
|
||||
\begin{prop}
|
||||
\begin{itemize}
|
||||
\item $\omega_0$ définit un ensemble positivement invariant.
|
||||
\item Dans $\R^2$ le seul attracteur possible est un cycle limite.
|
||||
\item Si la trajectoire converge vers un ensemble alors on a les cas possibles:
|
||||
\begin{itemize}
|
||||
\item C'est un ensemble de points d'équilibres.
|
||||
\item C'est un cycle limite.
|
||||
\item La trajectoire est un cycle limite.
|
||||
\end{itemize}
|
||||
\end{itemize}
|
||||
\end{prop}
|
||||
|
||||
Exemple 1 :
|
||||
\begin{align*}
|
||||
\derivp[R]{\omega}|_0 .\delta \omega + \derivp[R]{X}|_0 .\delta X - \derivp[I]{\omega}|_0 .m & = 0 \\
|
||||
\text{ et }\quad \derivp[I]{\omega}|_0 .\delta \omega + \derivp[I]{X}|_0 .\delta X + \derivp[R]{\omega}|_0 .m & = 0
|
||||
\dot{x} & =
|
||||
\begin{bmatrix}
|
||||
-1 & 10 \\-100 & -1 x = A_1x
|
||||
\end{bmatrix}\\
|
||||
\dot{x} & =
|
||||
\begin{bmatrix}
|
||||
-1 & 100 \\ -10 & -1 x = A_2x
|
||||
\end{bmatrix}
|
||||
\quad \text{v.p. } \lambda_{1,2} = -1 \pm j31,62
|
||||
\end{align*}
|
||||
|
||||
Élimination de $\delta \omega$ :
|
||||
\[\underbracket{ \left( \left(\left.\derivp[R]{\omega}\right|_0\right)^2 + \left(\left.\derivp[I]{\omega}\right|_0\right)^2 \right)}_{\ge 0} m
|
||||
= \left( \left.\derivp[R]{X}\right|_0.\left.\derivp[I]{\omega}\right|_0 - \left.\derivp[R]{\omega}\right|_0.\left.\derivp[I]{X}\right|_0 \right) \delta X \]
|
||||
Les deux systèmes sont stables
|
||||
|
||||
\newpage
|
||||
\noindent Différents types de perturbation
|
||||
Stabilité locale mais le système est instable globalement.\\
|
||||
|
||||
\begin{figure}[h!]
|
||||
\centering
|
||||
\begin{tikzpicture}
|
||||
\begin{axis}
|
||||
[axis lines= middle,
|
||||
ticks=none, domain=0:10,
|
||||
xmin=0,xmax=10,ymin=-2,ymax=2]
|
||||
\addplot[black,smooth]{cos(2*deg(x))};
|
||||
\addplot[black,smooth]{cos(2*deg(x))*(exp(x/10))};
|
||||
Important : l'analyse faite par linéarisation donne uniquement une information sur la stabilité locale et non globale.\\
|
||||
|
||||
\end{axis}
|
||||
\end{tikzpicture}
|
||||
\includegraphics[scale=0.4]{2/424-61.png}
|
||||
\end{figure}
|
||||
$m > 0$ et $\delta X > 0$ : CL est stable
|
||||
Exemple 2 :
|
||||
\begin{align*}
|
||||
\dot{x} & =
|
||||
\begin{bmatrix}
|
||||
1 &- 10\\100 & 1 x
|
||||
\end{bmatrix}
|
||||
= A_1x \\
|
||||
\dot{x} & =
|
||||
\begin{bmatrix}
|
||||
1 & -100\\10 & 1
|
||||
\end{bmatrix}
|
||||
x = A_2x \quad \text{v.p. } \lambda_{1,2} = -1 \pm j31,62
|
||||
\end{align*}
|
||||
|
||||
$m < 0$ et $\delta X > 0$ : CL est instable
|
||||
Les deux systèmes sont instables.
|
||||
|
||||
\begin{figure}[h!]
|
||||
\centering
|
||||
\includegraphics[scale=0.4]{2/424-62.png}
|
||||
\end{figure}
|
||||
$\delta X < 0$ et $m < 0$ : CL est stable
|
||||
En choisissant bien la permutation, on rend le système global stable.
|
||||
|
||||
$\delta X < 0$ et $m > 0$ : CL est instable
|
||||
\paragraph{Conclusion} l'analyse de la stabilité par linéarisation ne donne pas une CNS de stabilité des systèmes non linéaires (point d'équilibre), d'où l'importance de définir un autre moyen d'analyse. \\
|
||||
|
||||
\begin{prop}[Condition de stabilité du cycle limite dans le plan de Nyquist]
|
||||
le cycle limite est stable si et seulement si $\delta X . m >0$\\
|
||||
\begin{rem}
|
||||
Il existe d'autres méthodes pour tracer les trajectoires dans le plan de phase.
|
||||
\end{rem}
|
||||
|
||||
Pour que $\delta X . m >0$ :
|
||||
\[\boxed{ \left.\derivp[R]{X}\right|_0.\left.\derivp[I]{\omega}\right|_0 - \left.\derivp[R]{\omega}\right|_0.\left.\derivp[I]{X}\right|_0 > 0 }\]
|
||||
\end{prop}
|
||||
|
||||
On pose $T_{B0}(j\omega) = U(\omega) + jV(\omega)$ et $-\frac{1}{N(X)} = L(X) + jM(X)$
|
||||
|
||||
On a un cycle limite si
|
||||
\[ T_{B0}(j\omega_0) = -\frac{1}{N(x)} \quad \Rightarrow \quad
|
||||
\begin{example}[Élimination du temps]
|
||||
\begin{multicols}{2}
|
||||
\noindent Méthode explicite :
|
||||
\[
|
||||
\begin{cases}
|
||||
R(\omega,X) & = U(\omega) - L(X)\\I(\omega,X) & = V(\omega) - M(X)
|
||||
x_1(t) & = x_0 \cos t + \dot{x}_0 \sin t\\x_2(t) & = -x_0 \sin t + x_0 \cos t
|
||||
\end{cases}
|
||||
\]
|
||||
|
||||
d'où d'après la condition de stabilité du cycle limite :
|
||||
\[\boxed{-\derivp[L]{X}|_0.\derivp[V]{\omega}|_0 + \derivp[U]{\omega}|_0.\derivp[M]{X}|_0 > 0}\]
|
||||
\[x_1^2(t) + x_2^2(t) = x_0^2 + \dot{x}_0^2 \]
|
||||
On a éliminé le temps mais c'est assez \emph{spicifique} à la représentation d'état.
|
||||
|
||||
\subsection{Critère graphique}
|
||||
On repart de l'équation caractéristique du cycle limite:
|
||||
\[
|
||||
T_{BO}(j\omega) + \frac{1}{N(X)} = 0
|
||||
\]
|
||||
On note alors :
|
||||
\[
|
||||
\noindent Méthode implicite :
|
||||
\[ \dot{x} =
|
||||
\begin{bmatrix}
|
||||
0 & 1 \\ 1 & 0
|
||||
\end{bmatrix}
|
||||
x \text{ donc }
|
||||
\begin{cases}
|
||||
T_{BO}(j\omega) = U(\omega)+j V(\omega) \\
|
||||
-\frac{1}{N(X)} = P(X)+j Q(X) \\
|
||||
\end{cases}
|
||||
\implies
|
||||
\begin{cases}
|
||||
\Re(X,\omega) = U(\omega)-P(X)\\
|
||||
\Im{X,\omega} = V(\omega)-Q(X)
|
||||
\dd{x_1}{t} & = x_2\\ \dd{x_2}{t} & = -x_1
|
||||
\end{cases}
|
||||
\]
|
||||
|
||||
La condition de stabilité du cycle limite devient :
|
||||
\[
|
||||
\left.\derivp[Q]{X}\right|_0 \left.\derivp[U]{\omega}\right|_0 - \left.\derivp[V]{\omega}\right|_0 \left.\derivp[P]{X}\right|_0 >0
|
||||
\]
|
||||
Si on se place dans $\R^3$, on a 2 vecteurs : $\vect{U\\V\\0}$ et $\vect{P\\Q\\0}$ qui décrivent respectivement $T_{BO}$ et $-\frac{1}{N}$.
|
||||
|
||||
Les tangentes aux courbes $T_{BO}$ et $-\frac{1}{N}$ sont colinéaires aux vecteurs:
|
||||
\[\vec{v_T} = \derivp[]{\omega}\vect{U\\V\\0} \text{ et } \vec{u_N}=\derivp[]{X}\vect{P\\Q\\0} \text{ alors }
|
||||
\vec{v_T}\wedge\vec{u_N} = \vect{0\\0\\-\derivp[P]{X}.\derivp[V]{\omega} + \derivp[U]{\omega}.\derivp[Q]{X}}\]
|
||||
|
||||
Ainsi, la condition $-\derivp[P]{X}.\derivp[V]{\omega} + \derivp[U]{\omega}.\derivp[Q]{X}>0 \Rightarrow (\vec{v_T},\vec{u_N})$ dans le sens direct.
|
||||
|
||||
\begin{figure}[h!]
|
||||
\centering
|
||||
\begin{subfigure}{.5\textwidth}
|
||||
\centering
|
||||
\begin{tikzpicture}
|
||||
\begin{axis}
|
||||
[axis lines= middle,name=plot1,
|
||||
at={(0,0)},
|
||||
xmin=-3,xmax=3,ymin=-3,ymax=3,ticks=none,
|
||||
xlabel=$Re$,ylabel=$Im$]
|
||||
\addplot[smooth,tension=1,-latex] coordinates {(-2.5,-3) (-2,0) (-1,1.5)};
|
||||
\addplot[smooth,tension=1]coordinates{ (-1,1.5) (-0.3,1.2) (0,0)};
|
||||
\addplot[smooth,tension=1,-latex] coordinates {(0,-4) (-1,-2) (-3,-1)};
|
||||
\node[above] at (axis cs:-1,1.5) {$T_{BO}(j\omega)$};
|
||||
\node[above] at (axis cs: -1,-2) {$-\frac{1}{N(X)}$};
|
||||
\end{axis}
|
||||
\end{tikzpicture}
|
||||
\caption{STABLE}
|
||||
\end{subfigure}%
|
||||
\begin{subfigure}{.5\textwidth}
|
||||
\centering
|
||||
\begin{tikzpicture}
|
||||
\begin{axis}
|
||||
[axis lines= middle,
|
||||
xmin=-3,xmax=3,ymin=-3,ymax=3,ticks=none,
|
||||
xlabel=$Re$,ylabel=$Im$]
|
||||
\addplot[smooth,tension=1,-latex] coordinates {(-2.5,-3) (-2,0) (-1,1.5)};
|
||||
\addplot[smooth,tension=1]coordinates{ (-1,1.5) (-0.3,1.2) (0,0)};
|
||||
\addplot[smooth,tension=1,-latex] coordinates {(-3,-2) (-2,-1) (-0.5,-0.5)};
|
||||
\node[above] at (axis cs:-1,1.5) {$T_{BO}(j\omega)$};
|
||||
\node[below] at (axis cs: -1,-1) {$-\frac{1}{N(X)}$};
|
||||
\end{axis}
|
||||
\end{tikzpicture}
|
||||
\caption{INSTABLE}
|
||||
\end{subfigure}
|
||||
\caption{Critère géométrique de stabilité}
|
||||
\end{figure}
|
||||
|
||||
\begin{thm}[Critère de Loeb]
|
||||
Le cycle limite est stable si l'intersection de $T_{BO}(j\omega)$ et de $-\frac{1}{N(X)}$ est telle qu'en parcourant le lieu de Nyquist $T_{BO}(j\omega)$ dans le sens des $\omega$ croissants, on laisse à gauche la direction des $X$ croissant sur le lieu critique.
|
||||
\end{thm}
|
||||
\[dt = \frac{dx_1}{x_2} = -\frac{dx_2}{x_1}\]
|
||||
\[x_1dx_1 = -x_2dx_2 \text{ donc } x_1^2 + x_2^2 = x_{20}^2 + x_{10}^2\]
|
||||
\end{multicols}
|
||||
\end{example}
|
||||
\end{document}
|
||||
|
||||
%%% Local Variables:
|
||||
|
|
File diff suppressed because it is too large
Load diff
|
@ -1,332 +0,0 @@
|
|||
\documentclass[main.tex]{subfiles}
|
||||
\newcommand{\D}{\mathcal{D}}
|
||||
\newcommand{\Kc}{\mathcal{K}}
|
||||
\newcommand{\Lc}{\mathcal{L}}
|
||||
\begin{document}
|
||||
|
||||
|
||||
\section{Trajectoire}
|
||||
Dans le cas linéaire, la trajectoire est la solution au système $\dot{x}=Ax$ avec $x(0)=x_0$. Cette solution est unique. Qu'en est-il en non-linéaire?
|
||||
|
||||
\begin{defin}
|
||||
Un système dynamique sur $\D \subset \R^n$, où $n$ est la dimension du système, est un triplet $(\D,\R,\chi)$ où $\chi:\R \times \D \rightarrow \D$ est une trajectoire, tel que les axiomes suivants sont vérifiés:
|
||||
\begin{enumerate}
|
||||
\item Continuité : $\chi(.,.)$ est continue sur $\R \times \D$ et $\forall t \in \R$, $\chi(.,x)$ est dérivable.
|
||||
\item Consistance : $\chi(0,x_0)=x_0$, $\forall x_0\in \D$.
|
||||
\item Propriété de groupe : $\chi(\tau, \chi(t,x_0)) = \chi(t+\tau,x_0)$, $\forall x_0\in \D$.
|
||||
\end{enumerate}
|
||||
\end{defin}
|
||||
|
||||
\begin{rem}
|
||||
\begin{itemize}
|
||||
\item On dénote le système $(\D,\R,s)$ par $G$, où $\chi(.,.)$ est la trajectoire et $\D$ est l'espace de phase.
|
||||
\item On dénote la trajectoire $\chi(t,.) : \D \rightarrow\D$ par $\chi_t(x_0)$ ou $\chi_t$.
|
||||
\item Suivant l'axiome de consistance, $\chi_0(x_0)=x_0$ et suivant la propriété de groupe :
|
||||
\[ (\chi_{\tau} \circ \chi_t)(x_0) = (\chi_t \circ \chi_{\tau})(x_0) = \chi_{t+\tau}(x_0) \]
|
||||
Ainsi l'application inverse de $\chi_t$ est $\chi_{-t}$ où $\chi_t$ est un homéomorphisme (bijective, continue, inverse continue).
|
||||
|
||||
En effet, montrons que $\chi_t$ est injective.
|
||||
|
||||
Soit $y,z\in \D$ tels que $\chi_t(z)=\chi_t(y)$.
|
||||
On a $z=s_0(z)=\chi(0,z)=\chi(t-t,z)=\chi(-t,\chi(t,z))=\chi(-t,\chi(t,y))=\chi(0,y)=y$
|
||||
|
||||
$\chi_t$ est surjective : $\forall z \in D, \exists y \in \D$ tel que $y=\chi(-t,z)$.
|
||||
|
||||
Enfin, $\chi_t$ est continue sur $\R$ donc $\chi_{-t}$ est continue.
|
||||
\end{itemize}
|
||||
\end{rem}
|
||||
|
||||
\begin{exemple}
|
||||
Système linéaire causal de dimension $n$ ($n$ variables d'état)
|
||||
|
||||
$s:[0,+\infty[ \times \R^n \rightarrow \R^n$ où $\chi(t,x)=e^{At}x$ où $A\in\R^n$ matrice d'évolution
|
||||
|
||||
Ainsi $\chi_t(x) = e^{At}x$ où $\chi_t :
|
||||
\begin{cases}
|
||||
\R^n & \rightarrow \R\\x & \mapsto e^{At}x
|
||||
\end{cases}
|
||||
$
|
||||
|
||||
On a $(\chi_{\tau} \circ \chi_t) (x) = \chi_{\tau}(\chi_t(x)) = e^{A\tau}e^{At}x = \chi_{t+\tau}(x)$
|
||||
\end{exemple}
|
||||
|
||||
\begin{prop}
|
||||
Suivant l'axiome 1, le système $G$ peut être décrit par une équation différentielle sur $\D$. En particulier, la fonction $f:\D \rightarrow \R^n$ définie par $f(x) = \dd{\chi(t,x)}{t}|_{t=0}$. Ainsi, $f(x)$ est un champ de vecteur sur $\D$ où pour $x\in\D,f(x)\in\R^n$ correspond au vecteur tangent à la trajectoire en $t=0$.
|
||||
\end{prop}
|
||||
|
||||
\begin{exemple}
|
||||
Système linéaire $f(x)=\dd{e^{At}x}{t}|_{t=0}=Ax$
|
||||
\end{exemple}
|
||||
\emph{Nous avons défini une trajectoire, mais à partir de $\dot{x}=f(x)$, est-elle unique ?}
|
||||
|
||||
\section{Théorème du point fixe}
|
||||
|
||||
\begin{thm}[Point fixe]
|
||||
Soient $X$ un espace de Banach de norme $\|.\|$, $S$ un fermé de $X$ et $T:S\rightarrow S$ une application contractante sur $X$, i.e. $\exists \rho \in [0,1[$ tel que $\forall (x,y) \in S^2, ||T(x)-T(y)|| \leq \rho ||x-y||$,alors
|
||||
\[ \exists ! x^* \in S \text{ tel que } T(x^*)=x^*\]
|
||||
De plus, quelque soit la suite sur $S$ tel que $x_{n+1}=T(x_n)$, elle converge vers $ x^* $.
|
||||
\end{thm}
|
||||
|
||||
\begin{defin}
|
||||
Soit deux espaces métriques $(X,d_x)$ et $(Y,d_y)$ et une application $f:(X,d_x) \rightarrow (Y,d_y)$.
|
||||
On dit que $f$ est \emph{lipschitzienne} si $\exists \alpha > 0$ tel que
|
||||
\[\forall x,y \in X, \quad d_y(f(x),f(y)) \leq \alpha d_x(x,y)\]
|
||||
\end{defin}
|
||||
|
||||
\begin{rem}
|
||||
Une fonction lipschitzienne est uniformément continue.
|
||||
\end{rem}
|
||||
|
||||
\begin{thm}[Cauchy-Lipschitz]
|
||||
Soient le système dynamique défini par
|
||||
\[
|
||||
\dot{x}(t)=f(x(t)) \text{ et } x(t_0)=x_0\tag{$\ast$}
|
||||
\]
|
||||
Si $f:\D \rightarrow \R^n$ est lipschitzienne sur $\D$ alors \\
|
||||
$\forall x_0 \in \D, \exists \tau \in ]t_0,t_1[$ tel que $(\ast)$ a une unique solution $x:[t_0,\tau] \rightarrow \R^n$
|
||||
\end{thm}
|
||||
|
||||
\begin{proof}
|
||||
Soient $T(x) = x_0 + \int_t^{t_0}f(s)ds$, $t\in[t_0,\tau] = x(t)$
|
||||
|
||||
et on définit $S = \{ x(t) \text{ tel que } t\in [t_0,\tau], ||x-x_0|| \leq r \}$
|
||||
|
||||
Ainsi, $\forall x \in S$
|
||||
\begin{align*}
|
||||
||T(x) - x_0|| & = ||\int_{t_0}^t f(s)ds || \\
|
||||
& = || \int_{t_0}^t (f(s)-f(t_0)+f(t_0))ds || \\
|
||||
& \leq \int_{t_0}^t ||f(s)-f(t_0)||s + \int_{t_0}^t ||f(x_0)||ds \\
|
||||
& \leq (\alpha r + C) ds \quad (f \text{ lipsch. et } ||s-x_0|| \leq r) \\
|
||||
& \leq (\alpha r + C)(t-t_0) \leq r
|
||||
\end{align*}
|
||||
|
||||
$\exists \tau \in ]t_0,t_1[$ tel que $(\tau - t_0) \leq \frac{r}{\alpha r + C}$ donc $T:S\rightarrow S$.
|
||||
|
||||
\begin{align*}
|
||||
\forall x,y \in S, \quad ||T(x)-T(y)|| & \leq \int_{t_0}^t || f(x(s))-f(y(s)) || ds \\
|
||||
& \leq \alpha \int_{t_0}^t || x(s) - y(s) || ds \\
|
||||
& \leq \alpha \max_{s\in [t_0,\tau]} ||x(s)-y(s)|| \int_{t_0}^t ds \\
|
||||
& \leq \alpha |||x(s)-y(s)||| (t-t_0) \quad \text{ avec } \|.\|=\max_{s\in [t_0,\tau]}(.)
|
||||
\end{align*}
|
||||
|
||||
On veut $\alpha (t-t_0) \leq \alpha (\tau - t_0) \leq \rho$ avec $\rho<1$ donc $|||T(x)-T(y)|| \leq \rho |||x-y|||$.
|
||||
|
||||
Il suffit de choisir $\tau$ tel que $\tau - t_0 \leq \frac{\rho}{\alpha}$
|
||||
|
||||
$T:S \rightarrow S$ est contractante pour $\tau - t_0 \leq \min \{ \frac{r}{\alpha r + C}, \frac{\rho}{\alpha} \}$
|
||||
|
||||
(*) a une unique trajectoire.
|
||||
\end{proof}
|
||||
|
||||
\paragraph{Rappel:}
|
||||
Dans le cas linéaire, le système $\dot{x} =A x $ est stable si toutes ses valeurs propres sont à partie réelle négative, il existe un unique point d'équilibre $\overline{x}$ stable tq $\dot{x} =0$ (si $\det(A) \neq 0$n $\overline{x}=0$).
|
||||
|
||||
\begin{defin}
|
||||
\begin{itemize}
|
||||
\item Les points d'équilibre d'un système vérifient $\dot{x_{eq}} = 0$
|
||||
|
||||
\item Dans le cas non linéaire on peux avoir plusieurs points d'équilibre, isolés, voire une infinité, ou aucun.
|
||||
|
||||
\item La stabilité en non linéaire n'est pas une caractéristique du système mais d'un point (ou un ensemble de point) qui sont généralement les points d'équilibre.
|
||||
\end{itemize}
|
||||
\end{defin}
|
||||
|
||||
\begin{exemple}[Pendule simple] \\
|
||||
|
||||
\begin{enumerate}
|
||||
\item
|
||||
\begin{figure}[H]
|
||||
\centering
|
||||
\begin{tikzpicture}
|
||||
\draw[decorate,decoration={border,amplitude=0.5cm,segment length=0.5cm}] (-2,0) -- (2,0);
|
||||
\draw[dashed,latex-] (0,0.5) -- (0,-3);
|
||||
\draw[very thick] (-2,0)-- (2,0);
|
||||
\draw[fill=white] (0,0) circle(0.2) node{$\bullet$} -- (-70:3)node{$\bullet$};
|
||||
\draw (0,-1) arc (-90:-70:1) node[midway,below]{$\theta$};
|
||||
\end{tikzpicture}
|
||||
\caption{Pendule simple}
|
||||
\end{figure}
|
||||
On a la représentation d'état ($x_1=\theta$,$x_2=\dot{\theta}$):
|
||||
\[
|
||||
\begin{cases}
|
||||
\dot{ x_1} = x_2\\
|
||||
\dot{x_2} = \frac{-g}{l}sin(x_1)-\frac{k}{m}x_2
|
||||
\end{cases}
|
||||
\]
|
||||
Les points d'équilibre vérifient $\dot{x_1}=\dot{x_2} = 0$ soit $x_1= k\pi$,$k\in\Z$. physiquement on a deux points : $0$ et $\pi$.
|
||||
|
||||
\item soit le système NL:
|
||||
\[
|
||||
\begin{cases}
|
||||
|
||||
\dot{x_1}= \alpha + \sin(x_1(t)+x_2(t))+x_1(t)\\
|
||||
\dot{x_2}=\alpha+ + \sin(x_1(t)+x_2(t))-x_1(t)
|
||||
\end{cases}
|
||||
\]
|
||||
Les point d'équilibre sont solutions de $\dot{x_1}=0$ et $\dot{x_2}=0$: on a pas de solution, en effet $\dot{x_1}+\dot{x_2} = 2\alpha+2\sin(x_1+x_2)$ pour $\alpha>1$
|
||||
\end{enumerate}
|
||||
|
||||
\end{exemple}
|
||||
|
||||
\begin{rem}
|
||||
Les points d'équilibre peuvent aussi être déterminer dans le cas du régime forcé : $\dot{x}(t) = f(\overline{x},\overline{u}) = 0$
|
||||
\end{rem}
|
||||
|
||||
\section{Critère Qualitatif}
|
||||
|
||||
\paragraph{But}: Tracer les trajectoires $\chi(t,x_0),\forall x_0\in \D$ dans l'espace de phase $\R^n$ où $n$ est la dimension du système.
|
||||
|
||||
Cette méthode est réalisée pour les systèmes du second ordre ,plan de phase dans $\R^2$, voire dans $\R^3$. Les systèmes mécaniques sont des exemples typiques, notamment via les équation de Lagrange $\ddot{q} =l(q,\dot{q})$ avec $q$ coordonnées généralisées. même si le modèle est d'ordre $2n$ où $n = dim(q)$ on peux tracer les coordonnées deux à deux $x_1= q_i ,x_2 = \dot{q_i}$, dans le plan de phase.
|
||||
|
||||
\subsection{Méthode pour tracer les trajectoires}
|
||||
\begin{enumerate}
|
||||
\item Méthodes informatique :
|
||||
\begin{itemize}
|
||||
\item On utlise une intégration numérique pour différentes conditions initiale
|
||||
\item Graphe des pentes générés numériquement en étudiant $\deriv[x_1]{x_2} = \frac{f_1(x_1,x_2)}{f_2(x_1,x_2)}$
|
||||
\end{itemize}
|
||||
\item Méthode papier-crayon
|
||||
\begin{itemize}
|
||||
\item Méthode isocline : peut être manuelle et/ou numérique.
|
||||
\item Solution explicite des équations\\
|
||||
On élimine le temps de manière explicite ou non.
|
||||
\end{itemize}
|
||||
\end{enumerate}
|
||||
Dans l'analyse de la stabilité on s'interresse au comportement dans un voisinage du point d'équilibre.
|
||||
|
||||
\begin{defin}
|
||||
Pour déterminer \emph{l'index topologique} on utilise la méthode suivante:
|
||||
\begin{enumerate}
|
||||
\item Une courbe autour du point d'équilibre choisie d'une manière arbitraire et supposée de taille infinitésimale
|
||||
\item Avec une paramétrisation dans le sens trigonométrique
|
||||
\item On considère une suite arbitraire de point $(x_n)$ dans le sens de la paramétrisation
|
||||
\item Pour chaque point $x_n$ on évalue $f(x_n$) où $f$ vérifie $\dot{x} =f(x)$.
|
||||
\item Tous les vecteurs $f(x_n)_{n=1...N}$ sont ramenés aux point d'équilibre.
|
||||
\end{enumerate}
|
||||
Ainsi \emph{l'index topologique} est la mesure de l'angle (modulo $2\pi$) que l'extrimité des vecteurs $(f(x_i))$ parcourt dans le sens trigonométrique.
|
||||
\end{defin}
|
||||
\begin{figure}
|
||||
\centering
|
||||
\begin{tikzpicture}
|
||||
\node (x) at (0,0) {$\bullet$} node[above]{$\overline{x}$};
|
||||
\draw (x) circle (1.5) (20:1.5) node[inputarrow,rotate=110]{};
|
||||
\foreach \a in {0,1,2,3,4,5,6,7}
|
||||
{\draw[red,-latex] (\a*45:1.5) -- ++(\a*45:0.5);
|
||||
\node at (\a*45:2.4){$f(x_\a)$}; }
|
||||
\node at (5,0){$\bullet$};
|
||||
\foreach \a in {0,1,2,3,4,5,6,7}
|
||||
{\draw[red,-latex] (5,0) -- ++(\a*45:0.8);
|
||||
\draw (5,0)++(\a*45:1.2)node{$f_\a$}; }
|
||||
\node at (5,0){$\bullet$};
|
||||
\node[draw,rectangle] at (10,0){index = +1};
|
||||
\end{tikzpicture}
|
||||
\begin{tikzpicture}
|
||||
\node (x) at (0,0) {$\bullet$} node[above]{$\overline{x}$};
|
||||
\draw (x) circle (1.5)(20:1.5) node[inputarrow,rotate=110]{};
|
||||
\foreach \a/\r in {0/1.2,1/1,2/1,3/1,4/1.2,5/1,6/1,7/1}
|
||||
{\draw[red,-latex] (\a*45:1.5) -- ++(-\a*45:0.5);
|
||||
\node at (\a*45:\r*2){$f(x_\a)$}; }
|
||||
\foreach \a in {0,1,2,3,4,5,6,7}
|
||||
{\draw[red,-latex] (5,0) -- ++(-\a*45:0.8);
|
||||
\draw (5,0)++(-\a*45:1.2)node{$f_\a$}; }
|
||||
\node at (5,0){$\bullet$};
|
||||
\node[draw,rectangle] at (10,0){index = -1};
|
||||
\end{tikzpicture}
|
||||
|
||||
\begin{tikzpicture}
|
||||
\node (x) at (0,0) {$\bullet$} node[above]{$\overline{x}$};
|
||||
\draw (x) circle (1.5)(20:1.5) node[inputarrow,rotate=110]{};
|
||||
\foreach \a/\t/\r in {0/0/2.5,1/45/2.5,2/0/1.8,3/90/2,4/-45/2,5/45/1.8,6/0/1.8,7/90/2}
|
||||
{\draw[red,-latex] (\a*45:1.5) -- ++(\t:0.7);
|
||||
\node at (\a*45:\r){$f(x_\a)$}; }
|
||||
\foreach \a/\l in {0/137,1/26,2/4,7/5}
|
||||
{\draw[red,-latex] (5,0) -- ++(\a*45:0.8);
|
||||
\draw (5,0)++(\a*45:1.2)node{$f_{\l}$}; }
|
||||
\node at (5,0){$\bullet$};
|
||||
\node[draw,rectangle] at (10,0){index = 0};
|
||||
\end{tikzpicture}
|
||||
\caption{Détermination de l'index topologique}
|
||||
\end{figure}
|
||||
|
||||
Il reste maintenat à chercher les trajectoires autour des points d'équilibres.
|
||||
|
||||
\subsection{Méthode isocline}
|
||||
Pour cette méthode, il s'agit de poser :
|
||||
\begin{align*}
|
||||
\frac{dx_2}{dx_1}&= \frac{f_2(x)}{f_1(x)} = Cst \\
|
||||
\end{align*}
|
||||
C'est-à-dire de rechercher les points tel que la pente en $x$ est égale à une constante donnée.\\
|
||||
|
||||
\begin{exemple}[Pendule inversé]
|
||||
Cas sans frottement : \[
|
||||
\begin{cases}
|
||||
x_1 &= \theta \\
|
||||
x_2 &= \dot{\theta}
|
||||
\end{cases}
|
||||
\Rightarrow
|
||||
\begin{cases}
|
||||
x_1 & =x_2\\
|
||||
x_2 & = -\frac{g}{l}sin(x_1)
|
||||
\end{cases}
|
||||
\]
|
||||
\smallbreak
|
||||
Les iso-clines vérifient donc :
|
||||
\begin{align*}
|
||||
\frac{dx_2}{dx_1}&= \frac{-\frac{g}{l}sin(x_1)}{x_2}\\
|
||||
&=C
|
||||
\intertext{donc les points décrivant la courbe ont pour équation:}
|
||||
x_2 &= -\frac{g}{lC}sin(x_1)
|
||||
\end{align*}
|
||||
On trace alors alors ces courbes pour différentes valeurs de constante et l'on obtient:
|
||||
\begin{center}
|
||||
\includegraphics[scale=0.4]{1/graph2.png}
|
||||
\end{center}
|
||||
|
||||
|
||||
L'iso-cline donne la pente de la trajectoire, ainsi, en suivant les pentes données d'iso-cline en iso-cline, on peut remonter à la trajectoire.\\
|
||||
A noter que pour $C$ infini on est sur l'axe de $x_1$ et pour $C$ nul sur celui de $x_2$.\\
|
||||
|
||||
\begin{rem}
|
||||
sans frottement on atteint un cycle limite tandis qu'avec frottement on tend bien vers l'origine.
|
||||
\end{rem}
|
||||
\end{exemple}
|
||||
|
||||
\subsection{Méthode par suppression temporelle}
|
||||
\subsubsection{Méthode explicite}
|
||||
À partir des solutions des équations différentielles on se débarasse de la paramétrisation temporelle pour obtenir la trajectoire:
|
||||
\begin{exemple}
|
||||
\[
|
||||
\begin{cases}
|
||||
\dot{x_1} = x_0 \cos(t) + \dot{x_0} \sin(t)\\
|
||||
\dot{x_2} = -x_0 \sin(t) + \dot{x_0} \cos(t)\\
|
||||
\end{cases}
|
||||
\]
|
||||
On a $\dot{x_1}^2+\dot{x_2}^2 = x_0^2+\dot{x_0}^2$ soit un cercle de rayon $\sqrt{x_0^2+\dot{x_0}^2}$
|
||||
\end{exemple}
|
||||
|
||||
\subsubsection{Méthode implicite}
|
||||
|
||||
Le temps est élimié à partir de l'équation différentielle puis l'orbite est obtenue par intégration
|
||||
\begin{exemple}
|
||||
\[
|
||||
\begin{cases}
|
||||
\dot{x_1}=x_2\\
|
||||
\dot{x_2} = -x_1
|
||||
\end{cases}
|
||||
\implies \frac{\d x_2}{x_2} =\d t = \frac{\d x_1}{x_1}
|
||||
\]
|
||||
Donc : \[
|
||||
\int_{x_20}^{x_2}x_2\d x_2 = - \int_{x_10}^{x_1}x_1\d x_1
|
||||
\]
|
||||
Ainsi on a : $ x_1^2+x_2^2 = x_{10}^2+x_{20}^2$.
|
||||
\end{exemple}
|
||||
|
||||
\begin{rem}
|
||||
Les méthodes par élimination du temps ne s'appliquent que pour les systèmes avec des dynamiques relativement simple.
|
||||
\end{rem}
|
||||
\end{document}
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "main"
|
||||
%%% End:
|
|
@ -1,165 +1,691 @@
|
|||
\documentclass[main.tex]{subfiles}
|
||||
% Relu jusqu'à 3.4 inclus, X 08/02/2015
|
||||
% Corrigé jusqu'au 4.3 inclus, A 28/02/2015.
|
||||
\newcommand{\Lc}{\mathcal{L}}
|
||||
\newcommand{\D}{\mathcal{D}}
|
||||
\newcommand{\Kc}{\mathcal{K}}
|
||||
\newcommand{\Lc}{\mathcal{L}}
|
||||
\begin{document}
|
||||
\section{Introduction (notations maths)}
|
||||
|
||||
\begin{defin}
|
||||
On appelle \emph{champ de vecteur} toute application de $\R^n \rightarrow \R^n$.
|
||||
\end{defin}
|
||||
\section{Stabilité de Lagrange}
|
||||
Le premier a avoir intreoduit la notion de stabilité est Lagrange.
|
||||
Le concept est basé sur l'énergie potentielle $V$. Puisque les points d'équilibre du système correspondent aux points tels que $\derivp[V]{q}=0$ avec $q$ les coordonnées généralisées du mouvement, alors un point d'équilibre est stable suivant Lagrange si $\derivpp[V]{q} > 0$
|
||||
\begin{figure}[H]
|
||||
\centering
|
||||
\begin{tikzpicture}
|
||||
\draw[-latex] (-0.5,0) -- (5,0) node[right]{$q$};
|
||||
\draw[-latex] (0,-0.5) -- (0,4) node[above]{$R$};
|
||||
\draw (0.5,3) to[out=40,in=180] (4,0.5);
|
||||
\draw[decorate, decoration={border,amplitude=-0.2cm,angle=90,segment length=0.2cm}] (0.5,3) to[out=40,in=180] (4,0.5);
|
||||
\node(I) at (1,3.26) {$\bullet$};
|
||||
\node(S) at (4,0.56) {$\bullet$};
|
||||
\draw[latex-] (I) to[bend left] ++ (1,0.5) node[right]{instable};
|
||||
\draw[latex-] (S) to[bend right] ++ (1,0.5) node[above]{stable};
|
||||
\end{tikzpicture}
|
||||
\caption{Stabilité au sens de Lagrange}
|
||||
\end{figure}
|
||||
|
||||
\begin{defin}
|
||||
Soit $f : \R^n \rightarrow \R^n$ et $g : \R^n \rightarrow \R^n$, on définit le \emph{crochet de Lie} :
|
||||
\[ [f,g] :
|
||||
\begin{cases}
|
||||
\R^n & \rightarrow \R^n \\ x & \mapsto J_g(x)f(x) - J_f(x)g(x)
|
||||
\end{cases}
|
||||
\]
|
||||
où $J_f$ et $J_g$ sont respectivement les matrices jacobiennes de $f$ et $g$.
|
||||
\end{defin}
|
||||
Suivant Lagrange, un point d'équilibre est stable si pour toute condition initiales ,la trajectoire reste bornée.
|
||||
|
||||
\begin{prop}[Crochet de Lie]
|
||||
Soient $f, g \text{ et }h$ des champs de vecteurs et $\lambda_1, \lambda_2 \in \K, (\K = \R \text{ ou } \C)$.
|
||||
Alors
|
||||
\begin{align*}
|
||||
[\lambda_1 f + \lambda_2 g, h ] = \lambda_1[f,h] + \lambda_2[g,h] \quad & \text{Bilinéaire} \\
|
||||
[f,g] = - [g,f] \quad & \text{Anti-symétrique} \\
|
||||
[f,[g,h]] + [h,[f,g]] + [g,[h,f]] = 0 \quad & \text{Identité de Jacobi} \\
|
||||
[f,f] = 0 \quad
|
||||
\end{align*}
|
||||
\end{prop}
|
||||
\begin{itemize}
|
||||
\item On controle la variation sur la trajectoire par celle sur la condition initiale.
|
||||
\item des petites variation sur la condition initiale implique de petite variation sur la trajectoire.
|
||||
\end{itemize}
|
||||
|
||||
\begin{rem}
|
||||
La notion de stabilité en non linéaire concerne les points d'équilibre et non le système. Mathématiquement, Dirichlet a formalisé la stabilité au sens de Lagrange avec les trajectoires.
|
||||
\end{rem}
|
||||
\newpage
|
||||
\begin{defin}
|
||||
$G$ est une \emph{algèbre de Lie} sur $\K$ si $G$ est un espace vectoriel ayant pour loi interne le crochet de Lie.
|
||||
Un point d'équilibre $x^*$ est stable au sens de Lagrange si et seulement si
|
||||
|
||||
\[\forall \delta > 0, \exists \varepsilon > 0 \text{ tel que } \forall t \in \R, || x_0-x^* || \leq \delta \Rightarrow ||\chi(t,\chi(t_0,x_0))-x^* || \leq \varepsilon\]
|
||||
\end{defin}
|
||||
|
||||
Ainsi la stabilité suivant Lagrange est qu'un petit changement borné sur $x^*$ implique un petit changement borné sur la trajectoire.
|
||||
|
||||
\[\forall \delta > 0, \exists \epsilon > 0 \text{ tel que } ||\chi(t_0,x_0)|| \leq \delta \Rightarrow ||\chi(t,\chi(t_0,x_0))|| \leq \epsilon \]
|
||||
|
||||
Sans perte de généralité, on considère le point d'équilibre $x^* = 0$.
|
||||
|
||||
% \img{0.5}{4/lag}
|
||||
|
||||
|
||||
\begin{center}
|
||||
\includegraphics[width=0.5\textwidth]{4/lag.png} %HALLELUJAH !
|
||||
\end{center}
|
||||
|
||||
\begin{rem}
|
||||
La stabilité suivant lagrange n'implique pas la convergence mais seulement la bornitude\footnote{sic.} (la trajectoire reste bornée), ce n'est pa suffisant pour faire de l'automatique, il faut pouvoir garantir la convergence. On utilise donc la stabilité au sens de Lyapounov
|
||||
\end{rem}
|
||||
|
||||
\section{Stabilité au sens de Lyapunov}
|
||||
|
||||
\begin{defin}
|
||||
\[\forall \epsilon > 0, \exists \delta > 0 \text{ tel que } ||\chi(t_0,x_0)|| \leq \delta \Rightarrow || \chi(t,\chi(t_0,x_0)) || \leq \epsilon\]
|
||||
\end{defin}
|
||||
|
||||
Attention : il n'y a pas d'implication entre les deux.
|
||||
|
||||
\begin{rem}
|
||||
C'est $\varepsilon$ qui controle $\delta$.
|
||||
\end{rem}
|
||||
\begin{center}
|
||||
\includegraphics[width=0.5\textwidth]{4/lya.png}
|
||||
\end{center}
|
||||
|
||||
\begin{rem}
|
||||
La condition de Lagrange est sur la bornitude de la trajectoire (quelles que soient les conditions initiales, on borne la solution). Par contre, la condition de Lyapunov est sur la convergence dans un voisinage (il existe des conditions initiales pour lesquelles les trajectoires convergent vers $x^*$).
|
||||
\end{rem}
|
||||
|
||||
\begin{exemple}[Oscillateur de Van der Pol]
|
||||
\[
|
||||
\begin{cases}
|
||||
\dot{x_1} & = x_2\\ \dot{x_2} & = -x_1 + (1-x_ 1^2)x_2
|
||||
\end{cases}
|
||||
\]
|
||||
|
||||
Point d'équilibre $x^* =(0,0)$
|
||||
|
||||
\begin{rem}
|
||||
Il n'existe pas de solution analytique aux équations de Van der Pol, mais numériquement on trouve un cycle limite stable.
|
||||
\end{rem}
|
||||
|
||||
% \img{0.3}{3/2.png}
|
||||
|
||||
$\exists \epsilon$ tel que le cycle limite $\subset$ cercle de centre (0,0) et de rayon $\epsilon$ : stable au sens de Lagrange. Par contre, pas stable au sens de Lyapunov car on a
|
||||
\[ \forall \delta > 0, \nexists \epsilon > 0 \text{ tel que } ||\chi(t,\chi(t_0,x_0))|| < \epsilon \]
|
||||
|
||||
\end{exemple}
|
||||
|
||||
\begin{exemple}[Pendule sans frottement]
|
||||
L'origine est stable suivant Lyapunov avec $\delta = \epsilon$.
|
||||
|
||||
Elle n'est pas stable suivant Lagrange \[x_0=(x_1= \pi, x_2=0) : \nexists \epsilon >0 \text{ tel que } \|\chi(t,\chi(0,s_0))\| < \epsilon
|
||||
\]
|
||||
\end{exemple}
|
||||
|
||||
\subsection{Stabilité uniforme}
|
||||
\begin{defin}
|
||||
Le point d'équilibre $x^* (x^* =0)$ est dit point d'équilibre uniformément stable si, pour la condition de Lyapunov, $\delta$ peut être choisi indépendamment des conditions initiales $t_0,x_0$
|
||||
\end{defin}
|
||||
|
||||
|
||||
\begin{defin}
|
||||
On définit les \emph{fonctions de caractérisations} suivantes :
|
||||
\begin{enumerate}
|
||||
\item Si $\alpha : \R_+ \rightarrow \R_+$ est continue et strictement croissante, $\alpha$ est dite de classe $\Kc$.
|
||||
|
||||
Si $\alpha$ croit indéfiniment (i.e. $\alpha (s) \rightarrow \infty$), alors $\alpha\in \Kc_{\infty}$
|
||||
|
||||
\item $\phi$ est dite de classe $\Lc$ si $\phi:\R_+\rightarrow\R_+$ continue, strictement décroissante et $\phi(s) \rightarrow 0$
|
||||
|
||||
\item $\beta$ est dite de classe $\Kc\Lc$ si $\beta:\R_+ \times \R_+ \rightarrow \R_+$ si $\beta(.,r)\in \Lc \text{ et } \beta(s,.) \in \Kc$
|
||||
|
||||
Typiquement $\beta(s,r)=\alpha(s).\phi(r) \text{ avec } \alpha\in\Kc, \phi \in \Lc$.
|
||||
\end{enumerate}
|
||||
\end{defin}
|
||||
|
||||
\begin{exemple}
|
||||
$\beta(\|x_0\|,|t|)=\|x_0\|e^{-\lambda |t|} \text{ avec } \lambda >0$
|
||||
|
||||
Ainsi le but est d'arriver à vérifier pour une trajectoire du système $ \|\chi(t,x_0)\| \leq \beta(\|x_0\|,t),t \geq 0$ (enveloppe)
|
||||
\end{exemple}
|
||||
|
||||
\begin{prop}
|
||||
L'origine est uniformément stable si et seulement si \[\exists c>0, \alpha \in \Kc \text{ tel que } \|\chi(t_0,x_0)\| \leq c \Rightarrow \|\chi(t,\chi(t_0,x_0))\| \leq \alpha (\|\chi(t_0,x_0)\|)\]
|
||||
\end{prop}
|
||||
|
||||
\begin{proof}
|
||||
Condition suffisante.
|
||||
|
||||
Soit $\alpha \in \Kc$ (strictement croissante et continue, donc $\alpha^{-1}$ existe).
|
||||
|
||||
Pour $\epsilon >0, \exists \delta$ dépendant de $\epsilon \text{ tel que } \delta = \alpha^{-1}(\epsilon)$.
|
||||
|
||||
Si $\|\chi(t_0,x_0)\| \leq \delta \Rightarrow \|\chi(t,\chi(t_0,x_0))\| \leq \alpha(\alpha^{-1}(\epsilon)) \leq \epsilon$\\
|
||||
|
||||
Condition nécessaire.
|
||||
|
||||
$\forall \epsilon>0, \exists \delta$ dépendant de $\epsilon \text{ tel que } \|s_0\| \leq \delta \Rightarrow \|s\| \leq \epsilon$
|
||||
|
||||
Si $\epsilon_2 > \epsilon_1 \Rightarrow \delta_2 \geq \delta_1$ (suivant Lyapunov). On définit $\delta' \in \Kc \text{ tel que } \delta'<\delta$.
|
||||
|
||||
Pour $\epsilon > 9, \exists \delta > 0 \text{ tel que }$
|
||||
\begin{align*}
|
||||
\|s_0\| \leq \delta & \Rightarrow \|\delta\| \leq \epsilon\\
|
||||
\|s_0\| \leq \delta' & \Rightarrow \|\delta\| \leq \epsilon \text{ car } \delta'<\delta
|
||||
\end{align*}
|
||||
|
||||
Si on définit $\alpha(\|.\|)=(\delta')^{-1}$, $\forall \epsilon >0, \exists \delta'(\epsilon)$ où $\|s_0\|=\delta'(\epsilon) \Rightarrow \epsilon = (\delta')^{-1}(\|s_0\|)$
|
||||
|
||||
Suivant Lyapunov, cela implique $\|s\| \leq \epsilon \leq \alpha (\|s_0\|)$
|
||||
\end{proof}
|
||||
|
||||
\section{Attractivité (convergence)}
|
||||
\begin{defin}
|
||||
$\exists r > 0, \forall \sigma > 0, \exists T > 0 \text{ tel que } \|\chi(t_0,x_0)\| \leq r \Rightarrow \|\chi(t,\chi(t_0,x_0))\| \leq \sigma, \forall t \geq T$
|
||||
|
||||
% \img{0.5}{4/1.png}
|
||||
|
||||
Autrement dit : $\|s_0\| \leq r \Rightarrow \lim_{t\rightarrow \infty} \|\chi_t\| = 0$.
|
||||
|
||||
On parle d'attractivité uniforme si $T$ ne dépend pas de $t_0$.
|
||||
\end{defin}
|
||||
|
||||
\begin{prop}[Stabilité asymptotique]
|
||||
L'origine est asymptotiquement stable si et seulement si
|
||||
\begin{itemize}
|
||||
\item stabilité au sens de Lyapunov et attractivité
|
||||
\item $\|s_0\| \leq r \Rightarrow \|s\| \leq \beta (\|s_0\|,t), \quad \beta \in \Kc\Lc$
|
||||
\end{itemize}
|
||||
\end{prop}
|
||||
|
||||
\begin{prop}[Stabilité exponentielle]
|
||||
L'origine est exponentiellement stable si et seulement si
|
||||
\begin{itemize}
|
||||
\item stabilité au sens de Lyapunov et attractivité
|
||||
\item $\exists \alpha, \lambda, r >0 \text{ tel que } \|s_0\| \leq r \Rightarrow \|s\| \leq \alpha \|s_0\| e^{-\lambda t}$
|
||||
\end{itemize}
|
||||
\end{prop}
|
||||
\begin{prop}[Stabilité locale et globale]
|
||||
\begin{itemize}
|
||||
\item L'origine est globalement stable si la stabilité (asymptotique, exponentielle,...) ne dépend pas de la condition initiale, i.e. $\forall t_0 \in \R \text{ et } x_0 \in \R^n$ et dit localement stable (asymptotiquement, exponentiellement,...)
|
||||
\item Si la stabilité dépend de la CI, i.e. $\exists V_t \subset \R$ ou $V_x \in \R^n$ tel que $\forall t_0 \in V_t$ et $\forall x_0 \in V_x$, l'origine est stable.
|
||||
\end{itemize}
|
||||
\end{prop}
|
||||
\paragraph{Problème} Généralement, on n'a pas de solution analytique de l'équation différentielle. Ainsi, la stabilité ne peut pas être vérifiée via la trajectoire.
|
||||
|
||||
\begin{defin}
|
||||
$V$ est une \emph{fonction de Lyapunov} si :
|
||||
\begin{enumerate}
|
||||
\item $V :
|
||||
\begin{cases}
|
||||
\R^n & \rightarrow \R_+\\x & \mapsto V(x)
|
||||
\end{cases}
|
||||
$ telle que $V(0)=0$ et $V(x) \geq 0$ (définie semi-positive) ou telle que $V(0)=0$ et $V(x) > 0$ si $x\neq 0$ (définie positive)
|
||||
\item $V$ est radialement non bornée, i.e. $V(x) \rightarrow_{\|x\| \rightarrow \infty} \infty$
|
||||
\end{enumerate}
|
||||
\end{defin}
|
||||
|
||||
\begin{thm}[Stabilité au sens de Lyapunov]
|
||||
Soit $\dot{x}(t) = f(x(t))$ et $f(0)=0$ (origine est un point d'équilibre). On suppose qu'il existe $V$ (fonction de Lyapunov) continue et différentiable tel que
|
||||
\[ \exists D \subset \R^n, 0 \in \D \text{ où } \forall x \in \D, \quad \dot{V}(x) = (\derivp[V]{x})^Tf(x) \leq 0 \]
|
||||
Alors l'origine est stable au sens de Lyapunov sur $\D$.
|
||||
|
||||
Si $\D = \R^n$, 0 est globalement stable au sens de Lyapunov.
|
||||
\end{thm}
|
||||
|
||||
\begin{proof}
|
||||
Si $x=0$ est stable, alors $\forall \epsilon > 0, \exists \delta > 0 \text{ tel que } \|s_0\| \leq \delta \Rightarrow \|s\| \leq \epsilon$.
|
||||
|
||||
Pour $\epsilon > 0$ on définit $0<r\leq \epsilon$ avec $B_r(0) = \{ x \in \D \text{ tel que } \|x\| \leq r \}$
|
||||
|
||||
Soit $\alpha = \min_{\|x\| = r} V(x)$ et on choisit $\beta$ tel que $\beta < \alpha$ et on définit $\Omega_{\beta} = \{ x \in B_r(0) \text{ tel que } V(x) \leq \beta \}$.
|
||||
|
||||
$0\in \Omega_{\beta}$ car $V(0) = 0$ et $\Omega_{\beta} \subset B_r(0)$.
|
||||
|
||||
Soit $x_0\in \Omega_{\beta} \subset \D$ : $\dot{V}(x) \leq 0$
|
||||
\begin{align*}
|
||||
\Rightarrow & V(x(t)-V(x_0) \leq 0 \quad (\text{ car } \in \D) \\
|
||||
\Rightarrow & V(x(t)) \leq V(x_0) \leq \beta \quad (\text{ car } x_0 \in \Omega_{\beta}) \\
|
||||
\Rightarrow & x(t) \in \Omega_{\beta} \subset B_r(0)\\
|
||||
\Rightarrow & \|x(t)\| \leq \epsilon \quad r \leq \epsilon
|
||||
\end{align*}
|
||||
|
||||
(Autrement dit si on part de $\Omega_{\beta}$ on reste dans $\Omega_{\beta}$)
|
||||
|
||||
$\delta(\epsilon)$ est le rayon de la boule de centre O et $\subset \Omega_{\beta}$
|
||||
\end{proof}
|
||||
|
||||
\begin{thm}[Stabilité asymptotique au sens de Lyapounov]
|
||||
Soient le système $G:\dot{x}=f(x)$ et $f(0)=0$ et $V:\D \rightarrow\R_+$ une fonction de Lyapunov continue et différentiable telle que
|
||||
\[ \forall x \in \D, \quad \dot{V}(x) = (\derivp[V]{x})^T f(x) \leq -Q(x), \quad \text{ où } Q(x) \text{ est définie positive } \]
|
||||
|
||||
Alors l'origine est asymptotiquement stable.
|
||||
\end{thm}
|
||||
|
||||
|
||||
\begin{rem}
|
||||
$Q(x)$ dépend de toutes les variables d'état. Sinon la convergence asymptotique n'est vérifié que pour certaine direction.
|
||||
\end{rem}
|
||||
|
||||
|
||||
\begin{exemple}[Cas linéaire]
|
||||
|
||||
$\dot{x}=Ax$ avec $x\in \R^n$
|
||||
|
||||
Soit $P$ une matrice semi définie positive ($P^T = P \text{ et } \lambda(P) = 0 \Leftrightarrow \forall x\in \R^n, x^T P x \geq 0$)
|
||||
|
||||
On définit $V(x) = x^TPx$ fonction de Lyapunov
|
||||
|
||||
\begin{align*}
|
||||
\dot{V}(x) & = \dot{x}^T P x + x^T P \dot{x} \\
|
||||
& = x^T APx + x^T PAx \\&= x^T(A^TP + PA)x
|
||||
\end{align*}
|
||||
|
||||
\emph{Suivant Lyapunov, A est Hurwitz si et seulement si $Re(\lambda(A)) < 0$}.
|
||||
|
||||
$\exists P > 0 \text{ tel que } A^TP + PA$ définie négative.
|
||||
|
||||
On pose $P = \int_0^{\infty} e^{A^Tt}Qe^{At} dt$ avec $Q$ définie positive. On a donc $P$ définie positive.
|
||||
|
||||
\[ \int_0^{\infty} (A^T e^{A^Tt} Q e^{At} + e^{A^T t} Q e^{At} A)dt = \int_0^{\infty} \dd{e^{A^Tt} Q e^{At}}{t} dt = \left[e^{A^Tt}Qe^{At}\right]_0^{\infty}\]
|
||||
|
||||
Si $A$ est Hurwitz : $e^{At} \xrightarrow[t\rightarrow \infty]{} 0$
|
||||
|
||||
\[A^T P + PA = -Q \text{ définie négative (équation de Lyapunov)} \]
|
||||
|
||||
Pour le système linéaire
|
||||
\[ \dot{V}(x) = x^T (A^T P + PA)x \leq -x^T Q x\]
|
||||
$\Rightarrow$ Stabilité de Lyapunov $\Leftrightarrow$ Stabilité asymptotique
|
||||
|
||||
\end{exemple}
|
||||
|
||||
\begin{thm}[Stabilité exponentielle]
|
||||
Soient le système $G: \dot{x}=f(x)$ et $f(0)=0$, $\exists V : \D \rightarrow \R_+$ fonction de Lyapunov continue et différentiable telle que
|
||||
\begin{enumerate}
|
||||
\item $\exists \alpha > 0, \beta > 0$ et $c\geq 1$ tel que
|
||||
\[ \quad \forall x \in \D, \quad \alpha \|x\|^c \leq V(x) \leq \beta \|x\|^c\]
|
||||
\item $\exists \gamma > 0$ tel que
|
||||
\[ \quad \forall x \in \D, \dot{V} \leq - \gamma V \leq - \gamma \|x\|^c \]
|
||||
\end{enumerate}
|
||||
Alors l'origine est exponentiellement stable. Si $\D=\R^n$, on a aussi la stabilité globale.
|
||||
\end{thm}
|
||||
|
||||
\begin{proof}
|
||||
$\dot{V} \leq -\gamma V \Rightarrow V(x(t)) \leq V(x(0))e^{-\gamma t}$
|
||||
|
||||
si $\dot{\hat{V}}=-\gamma \hat{V}$
|
||||
\begin{align*}
|
||||
V(x(0)) & \leq \beta \|x(0)\|^c \\ \text{ et } V(x(t)) & \geq \alpha \|x(t)\|^c \\
|
||||
V(x(0))e^{-\gamma t} & \geq \\
|
||||
\beta\|x(0)\|^c e^{-\gamma t} & \geq \qquad \Rightarrow \|x(t)\| \leq (\frac{\beta}{\alpha})^{1/c}\|x(0)\|e^{-\frac{\gamma}{c}t}
|
||||
\end{align*}
|
||||
\end{proof}
|
||||
|
||||
\begin{corol}
|
||||
Le syst linéaire est aussi exponentiellement stable:
|
||||
\[
|
||||
V = x^T P x \implies \alpha \|x\| \le V(x) \le \beta \|x\|^c
|
||||
\]
|
||||
Avec $\alpha$ plus petite valeur propre de $P$ et $\beta$ plus grande valeur propre de $P$.
|
||||
\end{corol}
|
||||
si on a la stabilité asymptotique
|
||||
\[
|
||||
\dot{V}=x^T(A^TP+PA)x
|
||||
x^T R x \le -\gamma V
|
||||
x^T R x \le -\gamma \|x\|^2
|
||||
\]
|
||||
\begin{exemple}
|
||||
$\begin{cases}
|
||||
\dot{x_1} & = -x_1^3 + x_2 ^3 + x_1x_2^2\\\dot{x_2} & = - x_2^2 x_1 - 5x_2^3
|
||||
\end{cases}$
|
||||
|
||||
|
||||
$(x_1,x_2)=(0,0),f(0)=0$ est-il asymptotiquement stable ?
|
||||
|
||||
On pose $V(x) = \frac{1}{2}(x_1^2 + x_2^2)$. $V(0) = 0$ et $V(x)>0, \forall x \neq 0$.
|
||||
|
||||
\[ \dot{V}(x) = x_1\dot{x_1} + x_2 \dot{x_2} = -x_1^4 + x_1^2 x_2^2 - 5 x_2^4 \leq -\frac{1}{2}x_1^4 - \frac{9}{2}x_2^4 \leq - Q(x) \text{ tel que } Q(x) \geq 0 \]
|
||||
|
||||
L'origine est globalement asymptotiquement stable.\\
|
||||
|
||||
Est-il exponentiellement stable ?
|
||||
|
||||
\[ \alpha \|x(t)\|^c \leq V(x(t)) \leq \beta \|x(t)\|^c \]
|
||||
|
||||
$\beta=1,\alpha=\frac{1}{4}$
|
||||
|
||||
\[ \dot{V} \leq - \frac{1}{2}x_1^4 - \frac{9}{2}x_2^4 \leq -\frac{9}{2}(x_1^4 + x_2^4) \]
|
||||
|
||||
Pour $\D = \{ \|x\| \leq 1 \}, x_1^2 +x_2^2 \geq x_1^4 + x_2^4$ donc $-(x_1^2 + x_2^2) \leq -(x_1^4+x_2^4)$ : on ne peut pas borner $\dot{V}$ par $V$.
|
||||
|
||||
Avec ce $V(x)$ on ne peut décider de la convergence exponentielle.
|
||||
\end{exemple}
|
||||
|
||||
Si on arrive pas a vérifier la stabilité alors le point d'équilibre (ou l'origine) peut-être instable. Dans ce cas, comment vérifier l'instabilité du point d'équilibre (origine)?\\
|
||||
|
||||
\begin{thm}[Théorème de Lyapunov d'instabilité]
|
||||
Soit le système G: $x=f(x)$, $f(0)=0$ et $t\geq 0$.
|
||||
Si $\exists V : \D \subset \mathbb{R}^n \rightarrow \mathbb{R}_+$ continue, différentiable et définie positive ($0 \in \D$), tel que
|
||||
\[\forall x \in \D^*, \quad \dot{V}(x) = \left( \frac{\partial V}{\partial x}\right)^T f(x) >0 \]
|
||||
alors l'origine est instable.
|
||||
\end{thm}
|
||||
Le système accumule de l'énergie et deviens instable
|
||||
\begin{proof}
|
||||
Instable $\Leftrightarrow$ $\exists \epsilon>0$ tel que $\forall \delta >0$, alors $\|x_0\| \leq \delta$ et $\|x\| \geq \epsilon$\\
|
||||
|
||||
$\forall \delta > 0$ soit $r \in ]0;\delta[$ tel que:\\
|
||||
$B_r(0) = \{ x\in \D$ tel que $ \|x\| \leq r \}$ est compact.\\
|
||||
On pose $\alpha = max_{B_r(0)} V(x)$ et $x_0 \in B_r(0)$\\
|
||||
$V(x_0) = \alpha$, ainsi $V(x) - V(x_0) >0$ :
|
||||
\begin{align*}
|
||||
\Rightarrow & V(x) > \alpha\\
|
||||
\Rightarrow & x \notin B_r(0) \\
|
||||
\Rightarrow & x \in B_r^c(0)\\
|
||||
\Rightarrow & \|x\|> r
|
||||
\end{align*}
|
||||
Donc $\exists \epsilon >0$ tel que $\|x\| \geq \epsilon > r$
|
||||
\end{proof}
|
||||
\subsection{Théorème simplifiant l'analyse de la stabilité}
|
||||
|
||||
|
||||
\begin{thm}[Théorème de Barbashin-Krasovsky (Stabilité asymptotique)]
|
||||
Soit $\{0\}$ un point d'équilibre du système $\dot{x} = f(x)$ , où $f:\D \rightarrow \mathbb{R}^n$, localement lipschitzienne. On suppose qu'il existe $V$ continue, différentiable et définie positive telle que \[\dot{V} \leq 0\]
|
||||
Soit $S = \{x \in \D$ tel que $\dot{V(x)} = 0\}$.
|
||||
|
||||
Si $x=0$ est le seul élément de $S$, alors l'origine est asymptotiquement stable.
|
||||
\end{thm}
|
||||
|
||||
\begin{exemple}
|
||||
Soit le système :
|
||||
\[
|
||||
\begin{cases}
|
||||
\dot{x_1} &= -x_1^3 + 2 x_2^3\\\dot{x_2} &= -2x_1x_2^2
|
||||
\end{cases}
|
||||
\]
|
||||
L'origine est un point d'équilibre.\\
|
||||
\begin{align*}
|
||||
V(x) &= \frac{1}{2}x_1^2 + \frac{1}{2}x_2^2 >0\\
|
||||
\dot{V(x)} &= x_1\dot{x_1} + x_2\dot{x_2} = -x_1^4 \leq 0
|
||||
\end{align*}
|
||||
On ne peut pas conclure sur la stabilité asymptotique car $Q(x) = \frac{1}{2}x_1^4$ ne dépend pas de $x_2$. \\
|
||||
|
||||
On utilise le théorème de Barbashin :
|
||||
\begin{align*}
|
||||
S = \{x \in \D \text{ tel que }\dot{V(x)} = 0\} \Rightarrow x_1 = 0\\
|
||||
\Rightarrow & \dot{x_2} = 0\\
|
||||
\Rightarrow & x_2 = 0\\
|
||||
\Rightarrow & S = \{0\}\\
|
||||
\Rightarrow & \text{Stabilité asymptotique}
|
||||
\end{align*}
|
||||
\end{exemple}
|
||||
|
||||
\begin{thm}[Principe d'invariance de LaSalle]
|
||||
Soient $ \dot{x} = f(x)$ avec $f: \D \rightarrow \mathbb{R}^n$, $\Omega$ un compact positivement invariant tel que $\Omega \subset \D$, $V:\D\rightarrow\mathbb{R}_+$ continue, différentiable tel que $\dot{V} \leq 0 $ dans $\Omega$, $E= \{x \in \Omega$ tel que $ \dot{V}=0\}$ et M le plus grand ensemble positivement invariant inclus dans E.
|
||||
|
||||
Alors toute solution $x$ tel que $x_0 \in \Omega$ converge vers M quand $t \longrightarrow \infty$. Autrement dit $\overline{M}$ est l'attracteur.
|
||||
\end{thm}
|
||||
|
||||
|
||||
\begin{exemple}[Barbashin]
|
||||
Soit le système \[
|
||||
\begin{cases}
|
||||
\dot{x_1} & =x_2\\ \dot{x_2} & = -h(x_1) - g(x_2)
|
||||
\end{cases}
|
||||
\] où $h,g:[-a,a] \rightarrow \R$ avec $h(0)=g(0)=0$
|
||||
|
||||
et $\forall x \neq 0, \quad x.h(x) >0 \text{ et } x.g(x) >0$.\\
|
||||
|
||||
L'origine est un point d'équilibre.\\
|
||||
|
||||
Fonction de Lyapunov candidate :
|
||||
\[ V(x) = \int_0^{x_1} h(s)ds + \frac{1}{2}x_2^2 \]
|
||||
|
||||
$x_1 = 0$ et $x_2=0 \Rightarrow V(x)=0$
|
||||
|
||||
$x_1 \neq 0$ ou $x_2 \neq 0 \Rightarrow V(x) > 0$
|
||||
|
||||
donc $V$ est définie positive.\\
|
||||
|
||||
\begin{align*}
|
||||
\dot{V}(x) & = h(x_1) \dot{x_1}+ x_2 \dot{x_2}\\
|
||||
& = h(x_1)x_1 - x_2h(x_1) - g(x_1)x_2 \\
|
||||
& = -g(x_2)x_2 \leq -Q(x) \text{ définie positive, dépend de } x_1 \text{ et } x_2
|
||||
\end{align*}
|
||||
|
||||
Barbashin :
|
||||
|
||||
$E = \{ x \in \R^2, \dot{V}(x) = 0 \}$
|
||||
|
||||
$\dot{V}(x)=0 \Rightarrow x_2 = 0 \Rightarrow \dot{x_1}=0$
|
||||
|
||||
$\dot{x_2} = 0 + x_2 = 0 \Rightarrow h(x_1)=0 \Rightarrow x_1 = 0$
|
||||
|
||||
Alors $E=\{0\}$ stabilité asymptotique globale.
|
||||
\end{exemple}
|
||||
|
||||
\begin{exemple}[Invariance de La Salle]
|
||||
Soit le système $\dot{x} = ax + u$, $a$ inconnu mais borné.
|
||||
|
||||
$u=-kx$ et $\dot{k}= \gamma x^2, \gamma >0$
|
||||
|
||||
On pose $x_1=x$ et $x_2=k$
|
||||
\[
|
||||
\begin{cases}
|
||||
\dot{x_1} & = ax_1 - x_2x_1 \\\dot{x_2}& = \gamma x_1^2
|
||||
\end{cases} \]
|
||||
|
||||
La fonction de Lyapunov candidate
|
||||
\[ V(x) = \frac{1}{2} x_1^2 + \frac{1}{2\gamma} (x_2-b)^2, \quad \text{ avec } b>a \text{ car $a$ est borné} \]
|
||||
$V(0,b)=0$ et non pas l'origine
|
||||
|
||||
$V(x) \geq 0, \forall x \in \R^d$
|
||||
\begin{align*}
|
||||
\dot{V}(x) & = x_1 \dot{x_1} + \frac{1}{\gamma}(x_2-b)\dot{x_2} \\
|
||||
& = ax_1^2 - x_1^2 x_2 + (x_2-b)x_1^2 \\
|
||||
& = x_1^2 (a-b) \leq 0
|
||||
\end{align*}
|
||||
|
||||
$E = \{ x \in \R^2, \dot{V}=0 \} = \{ x_1 = 0 \}$ : attracteur
|
||||
|
||||
Pour le système de départ, on veut montrer que $x\to0$ ie..e. $x_1 \to 0$ donc (attracteur) $x_1 \to 0$
|
||||
\end{exemple}
|
||||
|
||||
\section{Extension du théorème de Lyapunov aux systèmes non autonomes, i.e. $\dot{x}=f(t,x)$}
|
||||
|
||||
\begin{defin}
|
||||
On considère \emph{un système non autonome}
|
||||
\[G : \dot{x}(t) = f(t,x)\], $x(t_0=x_0, \forall t\geq t_0$ avec $f(t,0)=0$, $\forall t \geq 0 \Rightarrow x = 0$ est un point d'équilibre.
|
||||
|
||||
L'origine est stable au sens de Lyapunov si et seulement si
|
||||
\[ \forall \epsilon > 0 \text{ et } t_0 \geq 0, \exists \delta > 0 \text{ tel que } \| S(t_0,x_0) \| \leq \delta \Rightarrow \| S(t,S(t_0,x_0)) \| \leq \epsilon, \forall t \geq t_0 \]
|
||||
\end{defin}
|
||||
|
||||
\begin{thm}[Théorème de Lyapunov]
|
||||
L'origine du système $G$ est stable au sens de Lyapunov s'il existe une $V:[0,+\infty[ \times \D \rightarrow \R_+$ continue et différentiable telle que :
|
||||
\begin{itemize}
|
||||
\item $V(t,0) = 0, \forall t\geq 0$
|
||||
\item $V(t,x) > 0, \forall (t,x) \in \R_+ \times \D \setminus \{0\}$
|
||||
\item $\dot{V}(t,x) = \derivp[V(t,x)]{t} + (\derivp[V(t,x)]{x})^Tf(t,x) \leq 0$, $\forall (t,x) \in \R_+ \times \D$
|
||||
\end{itemize}
|
||||
|
||||
S'il existe $Q(t,x)$ tel que
|
||||
\begin{itemize}
|
||||
\item $Q(t,0)=0, \forall t \geq 0$
|
||||
\item $Q(t,x) > 0, \forall (t,x) \in \R_+ \times \D \setminus \{0\}$
|
||||
\item $\dot{V}(t,x) \leq - Q(t,x), \forall (t,x) \in \R_+ \times \D$
|
||||
\end{itemize}
|
||||
|
||||
Alors l'origine est asymptotiquement stable.\\
|
||||
|
||||
Si $\exists \alpha > 0, \beta > 0, \gamma > 0 \text{ et } c \geq 1 \text{ tel que }$
|
||||
\begin{itemize}
|
||||
\item $\alpha \|x\|^c \leq V(t,x) \leq \beta \|x\|^c$
|
||||
\item $\dot{V}(,x) \leq - \gamma \|x\|^c$
|
||||
\end{itemize}
|
||||
|
||||
Alors l'origine est exponentiellement stable.
|
||||
|
||||
\end{thm}
|
||||
|
||||
\begin{rem}
|
||||
Si $\D = \R^n$ : l'origine est globalement stable
|
||||
\end{rem}
|
||||
|
||||
|
||||
Les démonstrations sont calquées sur celles du cas autonome, avec $x_1 = t \in \R_ +$, $x_2 = x \in \R^n$, $x_2 = x \in \R^n$ donc $\dot{x_1} = 1$ et $\dot{x_2} = f(x_1,x_2)$
|
||||
|
||||
|
||||
\begin{exemple}[Système linéaire non stationnaire]
|
||||
$\dot{x}(t) = A(t) x(t)$ et $x(0)=x_0, t \geq 0$
|
||||
|
||||
Soit $V(t,x)=x^TP(t)x$ où $P(t) > 9, \forall t \in \R_ +$
|
||||
|
||||
$V(t,0) = 0, \forall t \in \R_+$ et $V(t,x) > 0, \forall (t,x) \in \R_+ \times \R^n \setminus \{0\}$
|
||||
|
||||
\begin{align*}
|
||||
& \dot{V}(t,x) = x^T(t) \dot{P}(t) x(t) + x^T(t)A^T(t)P(t)x(t) + x^T(t)P(t)A(t)x(t) \leq 0 \\
|
||||
& \Leftrightarrow \dot{P}(t) + A^T(t)P(t) + P(t)A(t) \leq 0 \\
|
||||
\end{align*}
|
||||
Inégalité de Lyapunov dynamique
|
||||
|
||||
Stabilité asymptotique :
|
||||
\[ P(t)+A^T(t)P(t) + P(t)A(t) = - Q(t) \]
|
||||
Équation de Lyapunov dynamique
|
||||
|
||||
\[ \lambda_{min}(P(t)) \|x\|^{1=c} \leq V(t,x) \leq \lambda_{max}(P(t)) \|x\|^{1=c} \]
|
||||
|
||||
$\forall t \in \R_+, \exists \gamma > 0$
|
||||
\[ \dot{V}(t,x) \leq -\lambda_{min}(Q(t))\|x\| \] stabilité exponentielle
|
||||
\end{exemple}
|
||||
|
||||
\begin{rem}
|
||||
Dans le cas non autonome, la fonction de Lyapunov candidate peut ne pas dépendre du temps, mais elle doit dépendre de toutes les variables d'état.
|
||||
\end{rem}
|
||||
|
||||
\begin{exemple}
|
||||
Soit le système non-linéaire
|
||||
\begin{align*}
|
||||
\dot{x_1}(t) & = -x_1^3(t) + \sin \omega t x_2(t) \\
|
||||
\dot{x_2}(t) & = - \sin \omega t x_1(t) - x_2^3(t)
|
||||
\end{align*}
|
||||
avec $x_1(0) = x_{10}, x_2(0) = x_{20}$ et $t\geq 0$
|
||||
|
||||
L'origine est bien un point d'équilibre. Est-il asymptotiquement stable ?
|
||||
|
||||
\begin{align*}
|
||||
V(x) & = \frac{1}{2} x_1^2 + \frac{1}{2}x_2^2 \\
|
||||
\dot{V}(x) & = x_1 (-x_1^3 + \sin \omega t x_2) + x_2(-\sin \omega t x_1 - x_2^3) \\
|
||||
& = -x_1^4 - x_2 ^4 \leq 0 \text{ : stable } \\
|
||||
& \leq - \frac{1}{2}(x_1^4 + x_2^4) = -Q(x) \text{ : globalement aymptotiquement stable }
|
||||
\end{align*}
|
||||
\end{exemple}
|
||||
|
||||
\section{Stabilité entrées-états (SEE)/ Input-States Stability (ISS)}
|
||||
|
||||
Soit le système $ G: \dot{x}=f(x,u)$ où $f:\R^n \times \R^m \rightarrow \R^n$ ($m$ désigne le nombre d'entrées)
|
||||
|
||||
Soit l'origine un point d'équilibre :
|
||||
|
||||
\begin{enumerate}
|
||||
\item S'il est globalement stable, alors on peur analyser la SEE
|
||||
\item S'il est localement stable, alors la SEE est locale ($\D \subset \R^n$)
|
||||
\end{enumerate}
|
||||
|
||||
Dans le cas 1, on analyse la stabilité du système en SEE. Dans le cas 2, on analyse localement ($\D$) la stabilité du système en SEE.
|
||||
|
||||
\begin{defin}
|
||||
Le système est dit SEE si $\forall u(t)$ et $\forall x_0 \in \R^n$ bornées, il existe une solution $x(t,x_0), \forall t \geq 0$ et $\exists \alpha \in \Kc\Lc$ et $\exists\gamma \in \Kc_{\infty}$ tels que :
|
||||
|
||||
\[ \|x(t,x_0)\| \leq \alpha(\|x_0\|,t) + \gamma(\|u\|_{\infty})\]
|
||||
|
||||
où $\|u\|_{\infty} = \sup_{t\geq0}\|u(t)\| = \sup_{t\geq0} (u^Tu)^{1/2}$
|
||||
|
||||
\end{defin}
|
||||
\begin{prop}
|
||||
Par définition:
|
||||
\begin{itemize}
|
||||
\item Pour $u=0$ , l'origine est asymptotiquement stable.
|
||||
\item Pour $u$ bornée, la trajectoire est bornée.
|
||||
\end{itemize}
|
||||
\end{prop}
|
||||
\begin{rem}
|
||||
\[ \lim_{t \to \infty} \|x(t,x_0)\| \leq \gamma (\|u\|_{\infty}) \]
|
||||
|
||||
$\gamma$ gain asymptotique du système
|
||||
\end{rem}
|
||||
|
||||
|
||||
\emph{Cette définition dépend de la trajectoire, alors il faut trouver une condition suffisament indépendante de la trajectoire.}
|
||||
|
||||
|
||||
\begin{exemple}
|
||||
Soit le système $\dot{x}= Ax + Bu$
|
||||
|
||||
A Hurwitz implique que l'origine est stable.
|
||||
|
||||
Le système est-il SEE ?
|
||||
\[ x(t,x_0) = e^{At}x_0 + \int_0^t e^{A(t-\tau)} Bu(\tau) de \tau \]
|
||||
|
||||
\begin{align*}
|
||||
\|x(t,x_0)\| \leq e^{\lambda_{min}(A)t}\|x_0\| + \frac{1}{k} \|B\|.\|u\|_{\infty} = \frac{1}{k} \gamma(\|u\|_{\infty}) \text{ où } k = -\lambda_{max}(A)
|
||||
\end{align*}
|
||||
|
||||
$\|B\| = \sup_{\|v\|=1} \|Bv\|$ , on a bien un SEE
|
||||
\end{exemple}
|
||||
\begin{thm}[Condition suffisante de SEE]
|
||||
Le système $\dot{x}= f(x,u)$ est SEE si $f$ est lipschitzienne et l'origine (pour $\dot{x}=f(x,0)$) est globalement exponentionellement stable.
|
||||
\end{thm}
|
||||
\begin{exemple}
|
||||
Pour le système $\dot{x} = -x+(1+x^2)u$ :
|
||||
\begin{itemize}
|
||||
\item $f(x,0)$ origine exp stable. (car sys linéaire)
|
||||
\item $f$ n'est pas lipschitzienne pour les deux variables. En effet pour $u=1$ on a $\dot{x} = -x+1+x^2 > 0; \forall x_0$
|
||||
\end{itemize}
|
||||
\end{exemple}
|
||||
|
||||
|
||||
|
||||
\section{Attracteur}
|
||||
\emph{vu après}
|
||||
|
||||
\begin{defin}
|
||||
Un ensemble $M \subset D$ est positivement invariant du système
|
||||
|
||||
\begin{equation}\label{eq:sys}
|
||||
G:\dot{x}(t) = f(x(t)), x(0) = x_0, t\in \R \quad \tag{$\ast$}
|
||||
\end{equation}
|
||||
|
||||
|
||||
si $\chi_t(M) \subseteq M$ pour $t\geq 0$ où $\chi_t(M) = \{ \chi_t(x), x\in M \}$.\\
|
||||
|
||||
Il est négativement invariant suivant la dynamique \eqref{eq:sys} si $\chi_t(M) \subseteq M$ pour $t<0$. Ainsi $M$ est un ensemble invariant suivant \eqref{eq:sys} si $\chi_t(M) \subseteq M, \quad \forall t \in \R$
|
||||
\end{defin}
|
||||
|
||||
\begin{prop}
|
||||
Si $M \subset D$ est un ensemble invariant suivant \eqref{eq:sys}, alors $\overline{M}$ l'adhérence de $M$ est invariant.
|
||||
\end{prop}
|
||||
|
||||
\begin{proof}
|
||||
Soit la suite $(x_n)_{n\in\N} \subset M$ tel que $x_n \rightarrow x$ avec $x\in \overline{M}$.
|
||||
|
||||
Puisque $M$ est invariant, alors $(\chi_t(x_n))_{n\in\N} \subset M$. De plus, $\chi_t(x_n) \rightarrow \chi_t(x) \in \overline{M}$ car c'est un fermé.
|
||||
|
||||
Ainsi, $\overline{M}$ est invariant suivant \eqref{eq:sys}.
|
||||
\end{proof}
|
||||
|
||||
\begin{defin}
|
||||
Un ensemble invariant fermé $M \subset D$ est un \emph{attracteur} du système \eqref{eq:sys}, s'il existe un voisinage $N$ de $M$ tel que $\forall x \in N, \exists t \in \R$ tel que $\chi_t(x) \in M$
|
||||
\end{defin}
|
||||
|
||||
\begin{rem}
|
||||
Cette définition se restreint au cas qui nous intéresse ici, ce n'est pas la définition générale.
|
||||
Un cycle limite stable ou semi-stable est un attracteur.
|
||||
\end{rem}
|
||||
|
||||
\begin{rem}
|
||||
$\Lc(E)$ est l'algèbre de Lie ayant pour famille génératrice l'ensemble des champs de vecteurs $E$.
|
||||
\end{rem}
|
||||
\begin{exemple}
|
||||
Soit le système :
|
||||
\[
|
||||
\begin{cases}
|
||||
\dot{x_1}(t) = -x_2(t) + x_1(t)(1-x_1^2(t) - x_2^2(t)) \\ \dot{x_2}(t) = x_1(t) + x_2(t)(1-x_1^2(t) - x_2^2(t))
|
||||
\end{cases}
|
||||
\]
|
||||
|
||||
\underline{Notation} : Crochet de Lie itéré
|
||||
En utilisant les coordonnées polaires, on trouve l'attracteur de $M$.\\
|
||||
|
||||
$ad_f^0 (x) = g(x)$
|
||||
On a en effet
|
||||
$r = \sqrt{x_1^2 + x_2^2}$ et $ \theta = \arctan\frac{x_2}{x_1}$
|
||||
|
||||
$ad_f^1 g(x) = [f,g](x)$
|
||||
|
||||
$ad_f^k g(x) = [f,ad_f^{k-1}g](x)$
|
||||
|
||||
\begin{defin}
|
||||
la \emph{dérivée de Lie} d'une fonction $\alpha : \R^n \rightarrow \R$ dans la direction de $f : \R^n \rightarrow \R^n$, notée $L_f\alpha$, est définie par :
|
||||
\[L_f \alpha(x) = \sum_{i=1}^n \derivp[\alpha(x)]{x_i}f_i(x) \]
|
||||
donc
|
||||
$\dot{r} = \derivp[r]{x_1} \dot{x_1} + \derivp[r]{x_2}\dot{x_2} = r(1-r^2)$ et $\dot{\theta} = \derivp[\theta]{x_1}\dot{x_1} + \derivp[\theta]{x_2}\dot{x_2} = 1$\\
|
||||
|
||||
Ainsi,
|
||||
\[L_f^k \alpha (x) = J_{L_f^{k-1} \alpha} (x) f(x) = [ \derivp[L_f^{k-1} \alpha(x)]{x_1} \dots\derivp[L_f^{k-1} \alpha(x)]{x_n}] \vect{f_1(x) \\ \vdots \\ f_n(x) } \]
|
||||
\end{defin}
|
||||
|
||||
\begin{rem}
|
||||
\begin{itemize}
|
||||
\item $L_f^0 (x) = \alpha(x)$
|
||||
\item Soient 2 champs de vecteurs $f$ et $g$, alors
|
||||
\begin{align*}
|
||||
L_g L_f \alpha (x) & = J_{L_f \alpha}(x) g(x) \\
|
||||
L_{[f,g]} \alpha(x) & = L_f L_g \alpha(x) - L_gL_f \alpha(x)
|
||||
\end{align*}
|
||||
\end{itemize}
|
||||
\end{rem}
|
||||
$r>1 \quad \dot{r}<0 \Rightarrow r \rightarrow 1$
|
||||
|
||||
\begin{defin}
|
||||
La \emph{dimension} d'un ensemble de champs de vecteurs $E=\{f_1(x) \dots f_n(x)\}$, où $f_i(x) : \R^n \rightarrow \R^n$, est la dimension de l'espace vectoriel $\Delta(x)$ engendré par l'ensemble $E$.
|
||||
|
||||
\begin{rem}
|
||||
On fait la confusion entre rang et dimension.
|
||||
\end{rem}
|
||||
\end{defin}
|
||||
|
||||
\begin{example}
|
||||
\[ f_1(x) = \vect{x_1 \\ x_2 \\ 2}, f_2(x) =
|
||||
\begin{bmatrix}
|
||||
x_1 & x_3 \\ x_2 & x_3 \\2 & x_3
|
||||
\end{bmatrix}
|
||||
\text{ et }f_3(x) = \vect{x_2 \\ x_2 \\ 0} \]
|
||||
|
||||
Si $x_2 = 0$, alors $\Delta(x) = vect\{( \vect{x_1 \\ 0 \\ 2} ) \} \text{ et }dim=1$.
|
||||
|
||||
Si $x_2 \neq 0$, alors $\Delta(x) = vect\{(\vect{x_1 \\ x_2 \\ 2},\vect{1 \\ 1 \\ 0})\} \text{ et }dim=2$.
|
||||
\end{example}
|
||||
|
||||
\section{Commandabilité (atteignabilité, contrôlabilité)}
|
||||
|
||||
Soit le système non-linéaire (1) (affine en la commande)
|
||||
\[ \dot{x} = f(x) + g(x)u = f(x) + \sum_{i=1}^m g_i(x) u_i, \quad x \in \R^n \text{ et }u \in \R^m \]
|
||||
|
||||
\begin{defin}[Commandabilité]
|
||||
Un système est\emph{ commandable} ssi $\forall x \in \R^n, \exists u$ tel que $x$ est atteignable dans un temps fini.
|
||||
\end{defin}
|
||||
|
||||
\begin{thm}[Théorème de Commandabilité]
|
||||
Le système (1) est commandable ssi la sous-algèbre de Lie $\D = \{g_1 \dots g_m, \Lc(E)\}$ avec $E=\{g_1 \dots g_m,f\}$ est de dimension $n$.
|
||||
\end{thm}
|
||||
|
||||
\begin{example}[linéaire]
|
||||
\[ \dot{x} = Ax + Bu \]
|
||||
|
||||
\[ E = \{Ax,B\}, [B,Ax] = AB \]
|
||||
\[ [AB,Ax] = A^2B, \dots, A^{n-1}B, \dots \]
|
||||
\[ \Lc(E) = vect \{AB,A^2B,\dots\} \]
|
||||
|
||||
suivant Cayley Hamilton:
|
||||
\[ \D = \{B,vect \{AB,AB^2,\dots,A^{n-1}B\}\}\]
|
||||
|
||||
$dim \D = rang (B AB \dots A^{n-1}B)$ théorème de Kalman
|
||||
\end{example}
|
||||
|
||||
\section{Observabilité (distingabilité)}
|
||||
Soit le système NL (2) (affine en la commande) :
|
||||
\begin{align*}
|
||||
\dot{x} & = f(x) + g(x)u \\
|
||||
y & = h(x)
|
||||
\end{align*}
|
||||
|
||||
\begin{defin}
|
||||
Un système est \emph{observable} si $\forall x_1,x_2 \in \R^n$ 2 conditions initiales telles que $x_1 \neq x_2$, $\exists$ une commande $u$ admissible telle que les sorties soient distinctes, $\forall t \geq t_0$ ($t_0$ instant initial).
|
||||
\end{defin}
|
||||
|
||||
\begin{defin}[Espace d'observabilité]
|
||||
$\mathcal{V}$ est l'espace d'observabilité constitué de toutes les combinaisons linéaires obtenues à partir des dérivées de Lie $L_f$ et $L_g$ des fonctions $h_j(x),j=1 \dots p$ telles que $y\in\R^p$
|
||||
\[ \mathcal{V} = \{h_j,L_fh_j, L_g h_j, L^2_f h_j,\dots L_g L_f h_j, L_f L_g h_j,\dots \}\]
|
||||
|
||||
Soit $\nabla \mathcal{V}$ l'ensemble des différentielles (gradient) des éléments de $\mathcal{V}$ :
|
||||
|
||||
\[ \nabla \mathcal{V} = \{ \nabla h_j, \nabla L_f h_j ... \} \]
|
||||
\end{defin}
|
||||
|
||||
\begin{thm}[Théorème d'observabilité]
|
||||
Le système (2) est localement observable en $x_0$ si $dim \nabla \mathcal{V}(x_0) = n$ et il est observable si $\forall x \in \R^n, dim \nabla \mathcal{V}(c) = n$
|
||||
\end{thm}
|
||||
|
||||
\begin{example}[linéaire]
|
||||
\begin{align*}
|
||||
\dot{x} & = Ax + Bu = f(x) + g(x)u\\
|
||||
y & = Cx = h(x)
|
||||
\end{align*}
|
||||
|
||||
\begin{align*}
|
||||
\mathcal{V} & = \{ h(x), L_fh(x), L_gh, L^2_fh ,L_g^2h , L_fL_gh , L_gL_fh \dots \} \\
|
||||
\mathcal{V} & = \{ Cx, C.Ax (=L_fh(x)), C.B (=L_gh), CA^2x (=L^2_fh) ,0 (=L_g^2h) , 0 (=L_fL_gh) , CAB (=L_gL_fh) \dots \} \\
|
||||
\nabla \mathcal{V} & = \{ C , CA , 0 CA^2 , 0 , 0 , 0 \dots \} \\
|
||||
dim \nabla \mathcal{V} & = rang \vect{ C \\ CA \\ CA^2 \\ \vdots \\ CA^{n-1}} \quad \text{Critère de Kalman}
|
||||
\end{align*}
|
||||
\end{example}
|
||||
|
||||
\begin{rem}
|
||||
l'action de la commande intervient dans l'observabilité. Cette contrainte est écartée dnas le cas linéaire.
|
||||
\end{rem}
|
||||
$r<1 \quad \dot{r}>0 \Rightarrow r \rightarrow 1$
|
||||
|
||||
$r=1$ un fermé $\Rightarrow$ Attracteur où $\forall (x_1,x_2) \in \R^2 / \{(0,0)\}$ car $x_1=x_2=0$ est un point d'équilibre, les trajectoires convergent vers le cercle unité. Suivant le théorème de Poincaré-Bendixon le cercle unité est un cycle limite, car c'est un compact et ne contient pas de point d'équilibre.
|
||||
\end{exemple}
|
||||
\end{document}
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "main"
|
||||
|
|
|
@ -1,783 +1,166 @@
|
|||
\documentclass{article}
|
||||
\input{../../preambule/preambule}
|
||||
|
||||
\newcommand{\nom}{Commande des systèmes non linéaires}
|
||||
\newcommand{\partie}{}
|
||||
\renewcommand{\nomentete}{UE424 - \nom}
|
||||
\renewcommand{\auteur}{\partie}
|
||||
|
||||
|
||||
|
||||
\documentclass[main.tex]{subfiles}
|
||||
% Relu jusqu'à 3.4 inclus, X 08/02/2015
|
||||
% Corrigé jusqu'au 4.3 inclus, A 28/02/2015.
|
||||
\newcommand{\Lc}{\mathcal{L}}
|
||||
\newcommand{\D}{\mathcal{D}}
|
||||
\begin{document}
|
||||
\section{Introduction (notations maths)}
|
||||
|
||||
\titre{\nom}
|
||||
\begin{defin}
|
||||
On appelle \emph{champ de vecteur} toute application de $\R^n \rightarrow \R^n$.
|
||||
\end{defin}
|
||||
|
||||
\renewcommand{\partie}{Synthèse de commande en non-linéaire}
|
||||
|
||||
|
||||
\noindent \textsc{Avertissement : } La structure de ce cours est purement fictionnelle. Toute ressemblance avec un plan existant ou ayant existé serait tout à fait fortuite.
|
||||
|
||||
|
||||
\section*{Commande par bouclage linéarisant}
|
||||
|
||||
Principe : se ramener à un comportement linéaire
|
||||
\img{0.5}{5/1}
|
||||
|
||||
\subsection*{Linéarisation entrées-sorties}
|
||||
|
||||
Cas SISO : $u\in \R$ et $y\in\R$
|
||||
|
||||
Soit le système NL (1) (affine en la commande) :
|
||||
\[ \acc{\dot{x} & = f(x) + g(x) u}{y & = h(x)} \]
|
||||
|
||||
\begin{dfn}[degré relatif]
|
||||
Le degré relatif $r$ du système (1) est défini par :
|
||||
\[ r \in \N \tq L_gL_f^{r-1}h(x) \neq 0 \et \forall k < r-1, L_gL_f^{k}h(x) = 0\]
|
||||
\end{dfn}
|
||||
|
||||
\begin{thrm}
|
||||
[Procédure de linéarisation]
|
||||
|
||||
\begin{align*}
|
||||
\intertext{On cherche $r$ par le calcul des dérivées successives de $y=h(x)$ :}
|
||||
\dot{y} & = \drond{h(x)}{x} \dot{x}
|
||||
\\
|
||||
& = \drond{h(x)}{x}(f(x)+g(x)u) \\
|
||||
& = L_fh(x) + L_gh(x)u
|
||||
\intertext{Si $L_gh(x)\neq0$, alors $r=1$. Sinon on continue la procédure :}
|
||||
y^{(2)} & = \drond{L_fh(x)}{x}\dot{x} \\
|
||||
& = \drond{L_fh(x)}{x}f(x) + \drond{L_fh(x)}{x}g(x)u \\
|
||||
& = L^2_fh(x) + L_gL_fh(x)u
|
||||
\intertext{Si $L_gL_fh(x) \neq 0$, alors $r=2$. Sinon on continue...}
|
||||
y^{(r)} & = L_f^rh(x) + L_gL_f^{r-1}h(x)u
|
||||
\intertext{On a $1 \leq r \leq n$ car la procédure utilise la base canonique ($x_1=y,x_2=\dot{y}$) : la commande doit apparaître au maximum à la $n$-ième dérivée.}
|
||||
\intertext{On pose $v=y^{(r)} = L_f^rh(x) + L_gL_f^{r-1}h(x)u$}
|
||||
u & = (L_gL_f^{r-1}h(x))^{-1}(v-L_f^rh(x)) \\
|
||||
& = \alpha(x) + \beta(x) v, \avec \acc{\alpha(x) & = -(L_gL_f^{r-1}h(x))^{-1}L_f^rh(x)}{ \beta(x) & = (L_gL_f^{r-1}h(x))^{-1}}
|
||||
\end{align*}
|
||||
|
||||
La nouvelle entrée de commande est $v$ telle que
|
||||
\[ \acc{ \dot{x} & = f(x) + g(x)\alpha(x) + g(x)\beta(x)v}{ y & = h(x)} \]
|
||||
|
||||
$u = \alpha(x) + \beta(x)v$ est le bouclage linéarisant statique car à un instant fixé, la linéarisation ne dépend que de $x$ à cet instant.\\
|
||||
|
||||
\underline{Cas $r=n$}
|
||||
|
||||
\begin{multicols}{2}
|
||||
Choix de la base :
|
||||
\begin{align*}
|
||||
z_1 & = y = h(x) \\
|
||||
z_2 & = \dot{y} = L_fh(x) \Rightarrow \dot{z_1} = z_2 \\
|
||||
z_3 & = \ddot{y} = L_g^2h(x) \Rightarrow \dot{z_2} = z_3 \\
|
||||
\vdots \\
|
||||
y^{(n)} & = \dot{z_n} = L_f^nh(x) + L_gL_f^{n-1}h(x)u = v
|
||||
\end{align*}
|
||||
|
||||
Nouveau modèle :
|
||||
\begin{align*}
|
||||
\dot{z_1} & = z_2 \\
|
||||
\vdots \\
|
||||
\dot{z_{n-1}} & = z_n \\
|
||||
\dot{z_n} & = a(z) + b(z)u = v
|
||||
\end{align*}
|
||||
donc \[ u = \frac{v-a(z)}{b(z)} \avec b(z) \neq 0 \]
|
||||
\end{multicols}
|
||||
|
||||
\[ z = \phi(x) = \vect{\phi_1(x) \\ \vdots \\ \phi_n(x)} = \vect{ h(x) \\ L_fh(x) \\ \vdots \\ L_f^{n-1}h(x)} \]
|
||||
\[ u = \alpha(x)+\beta(x)v \avec \alpha(x) = -\frac{a(z)}{b(z)}|_{z=\phi(x)} \et \beta(x) = \frac{1}{b(z)}|_{z=\phi(x)} \]
|
||||
\end{thrm}
|
||||
|
||||
\newpage
|
||||
Schéma blocs :
|
||||
\img{0.5}{5/2}
|
||||
|
||||
Modèle linéaire :
|
||||
\[
|
||||
\acc{\dot{z} & = Az + Bv}{y & = Cz} \avec A = \left[ \begin{array}{ccccc}
|
||||
0 & 1 & 0 & \dots & 0 \\
|
||||
\vdots & \ddots & \ddots & \ddots & \vdots \\
|
||||
\vdots & & \ddots & \ddots & 0 \\
|
||||
0 & \dots & \dots & 0 & 1 \\
|
||||
0 & \dots & \dots & \dots & 0
|
||||
\end{array} \right], \quad B = \vect{ 0 \\ \vdots \\ 0 \\ 1 } \et C = [1 \quad 0 \dots 0 ]
|
||||
\begin{defin}
|
||||
Soit $f : \R^n \rightarrow \R^n$ et $g : \R^n \rightarrow \R^n$, on définit le \emph{crochet de Lie} :
|
||||
\[ [f,g] :
|
||||
\begin{cases}
|
||||
\R^n & \rightarrow \R^n \\ x & \mapsto J_g(x)f(x) - J_f(x)g(x)
|
||||
\end{cases}
|
||||
\]
|
||||
où $J_f$ et $J_g$ sont respectivement les matrices jacobiennes de $f$ et $g$.
|
||||
\end{defin}
|
||||
|
||||
Synthèse du correcteur linéaire :
|
||||
\img{0.5}{5/3}
|
||||
|
||||
Planification de trajectoire :
|
||||
\[ y^{(n)} = v = y_c^{(n)} + a_1 (y_v^{n-1)} - y^{(n-1)})+ \dots + a_{n-1}(\dot{y_c} - \dot{y}) + a_n(y_c-y) \]
|
||||
|
||||
Les $a_i$ sont choisis en imposant la dynamique de $\epsilon=y-y_c$ :
|
||||
\[ \epsilon^{(n)} + a_1 \epsilon^{(n-1)} + \dots + a_{n-1}\dot{\epsilon} + a_n\epsilon = 0 \]
|
||||
|
||||
Matrice d'évolution de la boucle fermée :
|
||||
\[ A_{BF} = \left[ \begin{array}{ccccc}
|
||||
0 & 1 & 0 & \dots & 0 \\
|
||||
\vdots & \ddots & \ddots & \ddots & \vdots \\
|
||||
\vdots & & \ddots & \ddots & 0 \\
|
||||
0 & \dots & \dots & 0 & 1 \\
|
||||
-a_n & -a_{n-1} & \dots & \dots & -a_1
|
||||
\end{array} \right] \quad \text{Forme canonique}
|
||||
\]
|
||||
|
||||
\begin{rmq}
|
||||
Cette méthode est assez simple. Cependant, il faut accéder aux dérivées successives de la sortie. Si on a des capteurs, alors OK, mais calculer une dérivée numérique n'est pas génial.
|
||||
\end{rmq}
|
||||
|
||||
\subsection*{Linéarisation entrée-états}
|
||||
|
||||
On ne dispose pas d'une sortie $y=h(x)$ donc on essaye de trouver une sortie "fictive".\\
|
||||
|
||||
Problème : trouver le bon changement de base $z_1 = \phi_1(x)$ qui remplace $z_1=y=h(x)$ :
|
||||
\[ z = \vect{z_1 \\ \vdots \\ z_n} = \vect{\phi_1(x) \\ \vdots \\ \phi_n(x)} = \phi(x) \]
|
||||
|
||||
$\phi$ est un difféomorphisme, i.e. bijectif et différentiable, de même pour la réciproque.\\
|
||||
|
||||
\cacededi{Donc on va définir c'est quoi la linéarisation.}{M. Abbas Turki}
|
||||
|
||||
\begin{dfn}
|
||||
Le système $\dot{x} = f(x) + g(x)u$ (1) est linéarisable entrée-états si il existe une région $\Omega \in \R^n$, un difféomorphisme $\phi:\Omega\rightarrow\R^n$ et un retour d'état $u=\alpha(x) + \beta(x)v$ tels que le nouveau vecteur d'état est $z=\phi(x)$ et la nouvelle entrée est $v$ avec $\dot{z} = Az+Bv$, $A$ matrice d'évolution $\in \R^{m \times n}$.
|
||||
\end{dfn}
|
||||
|
||||
En s'inspirant de la linéarisation entrée-sortie, on simplifie la recherche de $\phi(x)$ par celle de $\phi_1(x)=z_1$ et le reste des transformations est obtenu par la forme canonique (forme normale).
|
||||
|
||||
\begin{prop}[Crochet de Lie]
|
||||
Soient $f, g \text{ et }h$ des champs de vecteurs et $\lambda_1, \lambda_2 \in \K, (\K = \R \text{ ou } \C)$.
|
||||
Alors
|
||||
\begin{align*}
|
||||
z_2 & = \phi_2(x) \\
|
||||
& = \dot{z_1} = \dot{\phi_1}(x) \\
|
||||
& = \drond{\phi_1(x)}{x}f(x) + \drond{\phi_1(x)}{x}g(x)u \\
|
||||
& = L_f\phi_1(x) + L_g\phi_1(x)u \avec L_g\phi_1(x) = 0 \\
|
||||
z_3 & = L_f^2 \phi_1(x) \avec L_gL_f\phi_1(x) = 0 \\
|
||||
\phi(x) & = \vect{\phi_1(x) \\ L_f\phi_1(x) \\ \vdots \\ L_f^{n-1} \phi_1(x)} \avec L_gL_f^j \phi_1(x) = 0, j = 0,\dots n-2
|
||||
[\lambda_1 f + \lambda_2 g, h ] = \lambda_1[f,h] + \lambda_2[g,h] \quad & \text{Bilinéaire} \\
|
||||
[f,g] = - [g,f] \quad & \text{Anti-symétrique} \\
|
||||
[f,[g,h]] + [h,[f,g]] + [g,[h,f]] = 0 \quad & \text{Identité de Jacobi} \\
|
||||
[f,f] = 0 \quad
|
||||
\end{align*}
|
||||
|
||||
Or, $ L_gL_f^j \phi_1(x) = 0, j = 0,\dots n-2 \Leftrightarrow L_{ad_f^j g} \phi_1(x) = 0 $ car
|
||||
\begin{align*}
|
||||
L_g(L_g\phi_1) - L_g(L_f\phi_1)) & = L_f(\drond{\phi_1}{x}g)-L_g(\drond{\phi_1}{x}f) \\
|
||||
& = \drond{^2\phi_1}{x^2}g.f + \drond{\phi_1}{x}J_g.f - \drond{^2 \phi_1}{x^2}g.f - \drond{\phi_1}{x}J_f.g \\
|
||||
0 & = L_{[f,g]}\phi_1 = L_{ad_f g} \phi_1 = 0
|
||||
\end{align*}
|
||||
|
||||
Existe-t-il $\phi_1(x)$ tel que
|
||||
$\acc{L_g L_f^j \phi_1(x) & = 0, \quad j = 0, \dots, n-2}{L_g L_f^{n-1} \phi_1(x) & \neq 0}$ ?
|
||||
|
||||
\begin{dfn}[Distribution de champs de vecteurs]
|
||||
L'application $\Delta(x)$ est une distribution de champs de vecteurs sur $\Omega$ si $\forall x \in \Omega, \Delta(x)$ est un sous-espace vectoriel.
|
||||
\end{dfn}
|
||||
|
||||
\begin{exemple}
|
||||
\[\Delta(x) = vect \left\lbrace \vect{x_1 \\ x_2 \\2}, \vect{x_1x_3 \\ x_2x_3 \\ 2x_3},\vect{x_2 \\ x_2 \\ 0} \right\rbrace \]
|
||||
|
||||
\begin{align*}
|
||||
x_2 = 0 & \Rightarrow \Delta(x) = vect \left\lbrace \vect{x_2 \\ 0 \\ 2} \right\rbrace \\
|
||||
& \Rightarrow \Delta(x) \text{ est e.v. de dim = 1} \\
|
||||
x_2 \neq 0
|
||||
& \Rightarrow \Delta(x) = vect \left\lbrace \vect{x_1 \\ x_2 \\ 2},\vect{1 \\ 1 \\ 0} \right\rbrace \\
|
||||
& \Rightarrow \Delta(x) \text{ est un e.v. de dim = 2}
|
||||
\end{align*}
|
||||
$\Delta(x)$ est une distribution de champs de vecteurs.
|
||||
\end{exemple}
|
||||
|
||||
\cacededi{On a défini c'est quoi une distribution de champs de vecteurs, on va définir c'est quoi une distribution involutive}{M. Abbas-Turki}
|
||||
|
||||
\begin{dfn}[Involution]
|
||||
La distribution $\Delta$ est involutive ssi
|
||||
\[\forall f,g \in \Delta, \quad [f,g] \in \Delta, \quad \text{Homogénéité est mère de vertu} \]
|
||||
\end{dfn}
|
||||
|
||||
\begin{rmq}
|
||||
$\Delta(x) = vect \{ f_1, \dots, f_p \}$ est une distribution involutive ssi
|
||||
\[ \exists \alpha_{ij_k} : \R^n \mapsto \R \tq [f_i,f_j] = \sum_{k=1}^p \alpha_{ij_k}(x) f_k, \quad i = 1,\dots p, j = 1,\dots p\]
|
||||
\end{rmq}
|
||||
|
||||
\begin{exemple}
|
||||
\[ x_2 \neq 0 \Rightarrow \Delta(x) = vect\left\lbrace \vect{x_1 \\ x_2 \\ 2}, \vect{1 \\ 1 \\ 0} \right\rbrace\]
|
||||
\begin{align*}
|
||||
[f_1,f_2] & = J_{f_2}f_1 - J_{f_1} f_2 \\
|
||||
& = \mat{ 0 & 0 & 0 }{ 0 & 0 & 0 }{ 0 & 0 & 0 } \vect{x_1 \\ x_2 \\ 2} - \mat{ 1 & 0 & 0 }{ 0 & 1 & 0 }{ 0 & 0 & 0 }\vect{ 1 \\ 1 \\ 0} \\
|
||||
& = \vect{ -1 \\ -1 \\ 0} = -f_2 \in \Delta
|
||||
\end{align*}
|
||||
|
||||
$\Delta$ est une distribution involutive pour $x_2 \neq 0$
|
||||
\end{exemple}
|
||||
|
||||
\newcommand{\lesys}{$\dot{x}=f(x)+g(x)u, x\in\R^n, u\in\R$}
|
||||
|
||||
\begin{thrm}[Théorème d'existence de $\phi_1$]
|
||||
Soit le système \lesys.
|
||||
|
||||
Il existe un changement de base $z=\phi(x)$ linéarisant sur $\Omega$ tel que $\phi^T(x) = [\phi_1(x), L_f\phi_1(x) \dots L_f^{n-1} \phi_1(x) ]$ ssi :
|
||||
\begin{itemize}
|
||||
\item $dim(g,ad_f g, \dots ad_f^{n-1} g) = n$ (Commandabilité Kalman)
|
||||
\item la distribution engendrée par $\{g, ad_f g, \dots ad_f^{n-1}g\}$ est involutive, $\forall x \in \Omega$ \footnote{Homogénéité est mère de vertu}
|
||||
\end{itemize}
|
||||
\end{thrm}
|
||||
|
||||
Ainsi, la procédure de linéarisation entrée-états est réalisée via les étapes suivantes :
|
||||
\begin{enumerate}
|
||||
\item Construction de $E = \{ g, ad_f g, \dots, ad_f^{n-1} g \}$
|
||||
\item Vérifier la commandabilité, i.e. $dim(E) = n$ (Kalman !)
|
||||
\item Montrer que $\Delta(x) = vect\{E\}$ est involutif, i.e. $\exists \alpha_{ij_k}(x) : \Omega \mapsto \R$ tel que :
|
||||
\[ [ad_f^i g, ad_f^j g] = \sum_{k=0}^{n-1} \alpha_{ij_k}(x).ad_f^k g, \quad i,j = 0,\dots,n-1 \]
|
||||
\item Trouver $\phi_1(x)$ avec $\acc{L_{ad_f^j g} \phi_1(x) & = 0, j=0,\dots n-2}{L_gL_f^{n-1} \phi_1(x) & \neq 0}$
|
||||
\item Construction du nouveau vecteur d'état $z^T = \phi^T(x) = [\phi_1(x), L_f\phi_1(x) \dots L_f^{n-1} \phi_1(x) ]$
|
||||
\item Linéarisation par retour d'état statique $u = \alpha(x)+\beta(x)v$, $v$ nouvelle commande du modèle linéaire, avec
|
||||
\[ \alpha(x) = -\frac{L_f^n \phi_1(x)}{L_gL_f^{n-1}\phi_1(x)} \et \beta(x) = \frac{1}{L_gL_f^{n-1}\phi_1(x)} \]
|
||||
\end{enumerate}
|
||||
|
||||
Si le degré relatif $r<n$ dimension du modèle (entrée-sortie), alors le modèle N.L est partiellement linéarisable, mais le comportement entrée-sortie est linéaire : suffisant pour la commande du système à condition que la dynamique N.L (non linéarisée par le bouclage) est stable, i.e. $||x||$ est bornée.
|
||||
|
||||
|
||||
Ainsi en imposant :$z_1 = y = \phi_1(x)$ le modèle est sous forme normale :
|
||||
\begin{align*}
|
||||
& \left\lbrace
|
||||
\begin{array}{cc}
|
||||
\dot{z_1} & = z_2 \\
|
||||
\vdots \\
|
||||
\dot{z_r} & = v
|
||||
\end{array}
|
||||
\right. \text{ Partie linéaire, de dimension $r$, entrée-sortie }\\
|
||||
& \left\lbrace
|
||||
\begin{array}{cc}
|
||||
\dot{z_{r+1}} & = q_{r+1}(z) \\
|
||||
\vdots \\
|
||||
\dot{z_n} & = q_n(z)
|
||||
\end{array}
|
||||
\right.
|
||||
\text{ Partie N.L., de dimension $n-r$ n'influe sur la sortie}
|
||||
\end{align*}
|
||||
|
||||
\begin{rmq}
|
||||
En linéaire, le degré relatif correspond à la différence entre le degré du dénominateur et du numérateur $r=n-m$.
|
||||
|
||||
En effet, $y^{(n)} + a_{n-1}y^{(n-1)} + \dots + a_1y ^{(1)} + a_0y = b_mu^{(m)} + \dots + b_1u^{(1)} + b_0u$ :
|
||||
\[ \dd{}{t}\vect{x_1 \\ \vdots \\ x_n} = \left[ \begin{array}{ccccc}
|
||||
0 & 1 & 0 & \dots & 0 \\
|
||||
\vdots & \ddots & \ddots & \ddots & \vdots \\
|
||||
\vdots & & \ddots & \ddots & 0 \\
|
||||
0 & \dots & \dots & 0 & 1 \\
|
||||
-a_n & -a_{n-1} & \dots & \dots & -a_1
|
||||
\end{array} \right] \vect{x_1 \\ \vdots \\ x_n} + \vect{0 \\ \vdots \\ 0 \\ 1} u, y = (b_0, \dots b_m, 0 \dots 0) u\]
|
||||
\begin{align*}
|
||||
z_1 & = y = Cx \\
|
||||
z_2 & = \dot{z_1} = C\dot{x} = C(Ax+Bu) \\
|
||||
& = CAx + CBu
|
||||
\intertext{ Si $r=0$, alors $CB = (b_0 \dots b_M, 0 \dots 0) ( 0 \dots 1)^T = b_m$ ($r=n-m$ zéros dans $C$)}
|
||||
\intertext{ Si $CB = 0 = L_g\phi_1$,}
|
||||
z_2 & = L_f \phi_1 = CAx \\
|
||||
\dot{z_2} & = CA(Ax+Bu) = CA^2x + CAB u \Rightarrow r=1 (??)
|
||||
\end{align*}
|
||||
\end{rmq}
|
||||
|
||||
\subsection*{Dynamique des zéros}
|
||||
\begin{dfn}
|
||||
C'est la dynamique interne pour une sortie identiquement nulle.
|
||||
Ainsi, $y = 0 = z_1 \Rightarrow \dot{z_1} = \dot{z_2} = \dot{z_r} = v = 0$ et $u = -\frac{a(z)}{b(z)}$
|
||||
|
||||
La dynamique restante
|
||||
\begin{align*}
|
||||
&\left\lbrace
|
||||
\begin{array}{cc}
|
||||
\dot{z_{r+1}} & = q_{r+1}(z) \\
|
||||
\vdots \\
|
||||
\dot{z_n} = q_n(z)
|
||||
\end{array}\right. \text{ où } z = (0,z_{r+1},\dots z_n)^T = (0,\eta)^T\\
|
||||
& \left\lbrace
|
||||
\begin{array}{cc}
|
||||
\dot{\eta_1} & = q_{r+1}(0,\eta) \\
|
||||
\vdots \\
|
||||
\dot{\eta_{n-r}} & = q_n(0,\eta)
|
||||
\end{array} \right. \avec u = \frac{-a(0,\eta)}{b(0,\eta)}
|
||||
\end{align*}
|
||||
|
||||
\end{dfn}
|
||||
|
||||
\begin{rmq}
|
||||
Si $r<n$, le système comporte une dynamique des zéros.
|
||||
\end{rmq}
|
||||
|
||||
\subsection*{Système à déphasage minimal}
|
||||
\begin{dfn}[Cas linéaire]
|
||||
Si les zéros sont à partie $Re<0$
|
||||
\end{dfn}
|
||||
|
||||
|
||||
\begin{dfn}[Cas non linéaire]
|
||||
dynamique des zéros stables, i.e. à l'origine on a :
|
||||
\[\left\lbrace
|
||||
\begin{array}{cc}
|
||||
\dot{\eta_1} & = q(0,\eta) \\
|
||||
\vdots \\
|
||||
\dot{\eta_{n-r}} & = q(0,\eta)
|
||||
\end{array} \right. \text{ est stable} \]
|
||||
Ainsi, le le système est à déphasage non minimal, on applique la linéarisation $e-s$.
|
||||
\end{dfn}
|
||||
|
||||
\subsection*{Cas MIMO du bouclage linéarisant}
|
||||
Le linéarisation revient à trouver la commande qui réalise la réciproque de la non-linéarité : problème inverse. Dans le cas où le problème est non inversible d'une manière statique (i.e. algébrique), la solution est de réaliser une inversion dynamique (ex : l'observateur dans le cas linéaire).\\
|
||||
|
||||
Soit le système non-linéaire :
|
||||
\begin{align*}
|
||||
\dot{x} & = f(x) + \sum_{i=1}^m g_i(x)u_i \\
|
||||
y & = \vect{k_1(x) \\ \vdots \\ k_p(x)} \avec x\in\R^n,y \in \R^p \et u=\vect{u_1 \\ \vdots \\ u_m} \in \R^m
|
||||
\end{align*}
|
||||
|
||||
\begin{dfn}[Degré relatif en MIMO]
|
||||
Le degré relatif $r$ dans le cas MIMO est défini comme $r=r_1+\dots+r_p$ si $r_i$ est le degré relatif associé à la sortie $y_i$ tel que :
|
||||
\[ \forall j=1\dots m, L_{g_j}L_f^k h_i(x) = 0, \forall k < r_i-1\]
|
||||
\[ \exists j =1\dots m, L_{g_j}L_f^{r_i-1} h_i(x) \neq 0\]
|
||||
\end{dfn}
|
||||
|
||||
\begin{thrm}[Procédure de linéarisation]
|
||||
Sans perte de généralité, on pose $m=p$. Calculons les dérivées successives des sorties :
|
||||
\[
|
||||
\vect{ y_1^{(r_1)} \\ \vdots \\ y_p^{(r_p)}} =
|
||||
\vect{ L_f^{r_1} h_1(x) \\ \vdots \\ L_f^{r_p}h_p(x) } +
|
||||
\mat{L_{g_1}L_f^{r_1-1}h_1 & \dots & L_{g_m}L_f^{r_1 - 1} h_1}{\vdots & \ddots & \vdots}{L_{g_1}L_f^{r_p-1} & \dots & L_{g_m}L_f^{r_p-1} h_p}
|
||||
\vect{u_1 \\ \vdots \\ u_m}
|
||||
\]
|
||||
On remarquera l'intérêt de poser $m=p$.
|
||||
|
||||
On note $D(x)$ la matrice $\R^{p\times m}$ (dite de découplage).
|
||||
|
||||
Si $D(x)$ est inversible, alors la commande linéarisante est :
|
||||
\[ u(x) = D(x)^{-1}( \vect{v_1 \\ \vdots \\ v_m} - \vect{L_f^{r-1} h_1(x) \\ \vdots \\ L_f^{r_p}h_p(x)}) \]
|
||||
\end{thrm}
|
||||
|
||||
\begin{prop}
|
||||
Le système MIMO est linéarisable si $r=\sum_{i=1}^p r_i = n$ avec $D(x)$ inversible.
|
||||
\end{prop}
|
||||
|
||||
Dans le cas où $r<n$, alors le système MIMO est partiellement linéarisable. Ainsi, $\eta$ est le vecteur d'état des $n-r$ équations non linéaires restantes.
|
||||
\[ \dot{\eta} = P(z,\eta) + Q(z,\eta) u, \avec P_k(z,\eta) = L_f \eta_k \et Q_{k,j}(z,\eta) = L_{g_j}\eta_k, k = 1 \dots n-r, j = 1 \dots m \]
|
||||
|
||||
Ainsi la dynamique interne, i.e. dynamique des zéros
|
||||
\[ \dot{\eta} = P(\underline{0},\eta)+Q(\underline{0},\eta)u(\underline{0},\eta) \avec u(\underline{0},\eta) = -D^{-1}(\underline{0},\eta)\vect{L_f^{r_1}h_1(\underline{0},\eta) \\ \vdots \\ L_f^{r_p}H_p(\underline{0},\eta)} \]
|
||||
|
||||
doit être stable.
|
||||
|
||||
Si $D(x)$ n'est pas inversible alors le bouclage linéarisant est dynamique :
|
||||
\begin{align*}
|
||||
u & = \alpha(x,q) + \beta(x,q) v \\
|
||||
\dot{q} & = \gamma(x,q) + \delta(x,q) v
|
||||
\end{align*}
|
||||
|
||||
tel que $z=\phi(x,q)$ est un difféomorphisme.\\
|
||||
|
||||
La procédure générique est de dériver $y_j$ au delà de $r_j$ pour obtenir $D(x,q)$ inversible.
|
||||
|
||||
Les dynamiques auxiliaires $q$ sont obtenues à partir des dérivées successives des commandes. Cette procédure est la linéarisation par bouclage dynamique.
|
||||
|
||||
\newpage
|
||||
\section*{Poursuite de trajectoire asymptotique}
|
||||
\begin{defin}
|
||||
$G$ est une \emph{algèbre de Lie} sur $\K$ si $G$ est un espace vectoriel ayant pour loi interne le crochet de Lie.
|
||||
\end{defin}
|
||||
|
||||
\subsection*{Cas SISO}
|
||||
Soit le système non-linéaire SISO (1) :
|
||||
\[ \acc{ \dot{x} & = f(x,y) }{ y & = h(x)} \]
|
||||
\begin{rem}
|
||||
Cette définition se restreint au cas qui nous intéresse ici, ce n'est pas la définition générale.
|
||||
\end{rem}
|
||||
|
||||
Il existe une trajectoire (non unique) remplaçant le vecteur d'état $x$ par $z$ les dérivées successives de la sortie $y$.
|
||||
\begin{rem}
|
||||
$\Lc(E)$ est l'algèbre de Lie ayant pour famille génératrice l'ensemble des champs de vecteurs $E$.
|
||||
\end{rem}
|
||||
|
||||
Ainsi, on peut réécrire (1) sous forme polynomiale :
|
||||
\[ P(y, \dots, y^{(n)}, u , \dots u^{(k)}) = 0 \] avec $n < \infty$ et $k< \infty$:
|
||||
\[ z = \vect{ z_1 \\ \dots \\ z_n} = \vect{ y \\ \vdots \\ y^{(n-1)}} \]
|
||||
\underline{Notation} : Crochet de Lie itéré
|
||||
|
||||
Sous la condition $ \drond{P}{y^{(n)}} \neq 0$ le modèle (1) est remplacé par la forme canonique
|
||||
\begin{align*}
|
||||
\dot{z_1} & = z_2\\
|
||||
\vdots \\
|
||||
\dot{z_n} & = C(z_1 \dots z_n, u \dots u^{(k)})
|
||||
\end{align*}
|
||||
$ad_f^0 (x) = g(x)$
|
||||
|
||||
On suppose la consigne $y_c$ $n$ fois dérivable par rapport au temps.
|
||||
$ad_f^1 g(x) = [f,g](x)$
|
||||
|
||||
Objectif : trouver $u$ tel que $y \tdv y_c$ suivant une dynamique imposée.
|
||||
$ad_f^k g(x) = [f,ad_f^{k-1}g](x)$
|
||||
|
||||
\begin{thrm}[Procédure]
|
||||
\begin{defin}
|
||||
la \emph{dérivée de Lie} d'une fonction $\alpha : \R^n \rightarrow \R$ dans la direction de $f : \R^n \rightarrow \R^n$, notée $L_f\alpha$, est définie par :
|
||||
\[L_f \alpha(x) = \sum_{i=1}^n \derivp[\alpha(x)]{x_i}f_i(x) \]
|
||||
|
||||
Ainsi,
|
||||
\[L_f^k \alpha (x) = J_{L_f^{k-1} \alpha} (x) f(x) = [ \derivp[L_f^{k-1} \alpha(x)]{x_1} \dots\derivp[L_f^{k-1} \alpha(x)]{x_n}] \vect{f_1(x) \\ \vdots \\ f_n(x) } \]
|
||||
\end{defin}
|
||||
|
||||
\begin{rem}
|
||||
\begin{itemize}
|
||||
\item On pose $\epsilon(t) = y_c(t) - y(t)$ : erreur de poursuite
|
||||
\item Imposer la dynamique de poursuite : \[\epsilon^{(m)} + \beta_{m-1} \epsilon^{(m-1)} + \dots + \beta_1 \epsilon^{[1)} + \beta_0 \epsilon = 0 \] tels que $\beta_i,i=0\dots m$ sont choisis pour que le polynôme
|
||||
\[ \ld^n + \beta_{n-1} \ld^{n-1} + \dots + \beta_1 \ld + \beta_0 = 0 \] est Hurwitz, i.e. racines sont à parties réelles strictement négatives.
|
||||
Pour $n=m$ on a
|
||||
\[ y^{(m)} (t) = y_c^{(m)}(t) + \sum
|
||||
_{i=1}^m \beta_{i-1}(y_c^{(i-1)}(t) - y^{(i-1)}(t)) \]
|
||||
|
||||
On peut aussi réécrire le modèle sous forme d'état $(\epsilon_1 = \epsilon)$ :
|
||||
\item $L_f^0 (x) = \alpha(x)$
|
||||
\item Soient 2 champs de vecteurs $f$ et $g$, alors
|
||||
\begin{align*}
|
||||
\dot{\epsilon_1} & = \epsilon_2 \\
|
||||
\vdots \\
|
||||
\dot{\epsilon_n} & = \hat{C}(y_c^{(n)}, Y_c, E , u , \dots
|
||||
u^{(k)}) \avec Y_c = \vect{y_c \\ \vdots \\ y_c^{(m-1)}} \et E = \vect{\epsilon_1 \\ \vdots \\ \epsilon_n}
|
||||
L_g L_f \alpha (x) & = J_{L_f \alpha}(x) g(x) \\
|
||||
L_{[f,g]} \alpha(x) & = L_f L_g \alpha(x) - L_gL_f \alpha(x)
|
||||
\end{align*}
|
||||
|
||||
La poursuite asymptotique revient à trouver $u$ tel que
|
||||
\[\hat{C}(y_c^{(n)},Y_c,E,u,\dots u^{(k)}) = -\sum_{i=1}^n \beta_{i-1}\epsilon^{(i-1)} \Leftrightarrow C(z_1,\dots z_n,u,u^{(i)},\dots u^{(k)} = y_c^{(n)} + \sum_{i=1}^n \beta_{i-1} (y_c^{(i-1)} -z_i) \]
|
||||
|
||||
Dans le cas où le modèle est sous forme normale (forme obtenue pour le bouclage linéarisant) :
|
||||
\begin{align*}
|
||||
\dot{z_1} & = z_2, z_1 = y \\
|
||||
\vdots \\
|
||||
\dot{z_{r-1}} & = z_r \\
|
||||
\dot{z_r} & = b(z) + a(z)u \avec a(z) \neq 0 \\
|
||||
\dot{z_{r+1}} & = q_{r+1} (z) \\
|
||||
\vdots \\
|
||||
\dot{z_n} & = q_n(z)
|
||||
\end{align*}
|
||||
|
||||
Si $m=r$ alors \[ u = \frac{1}{a(z)} (-b(z)+y_c^{(r)} + \sum_{i=1}^r \beta_{i-1} \epsilon^{(i-1)} \]
|
||||
$y_c^{(r)}$ bouclage linéarisant statique
|
||||
|
||||
Si$m=r+1$ alors
|
||||
\[ \dot{u} = \frac{1}{a(z)} (-\dot{b}(z) - \dot{a}(z)u + y_c^{(m)} + \sum_{i=1}^m \beta_{i-1} \epsilon^{(i-1)}) \]
|
||||
$\dot{a}(z)u$ bouclage linéarisant dynamique
|
||||
Même démarche pour les degrés supérieurs de la poursuite asymptotique.
|
||||
\end{itemize}
|
||||
\end{rem}
|
||||
|
||||
\end{thrm}
|
||||
\img{0.5}{6/1}
|
||||
\begin{defin}
|
||||
La \emph{dimension} d'un ensemble de champs de vecteurs $E=\{f_1(x) \dots f_n(x)\}$, où $f_i(x) : \R^n \rightarrow \R^n$, est la dimension de l'espace vectoriel $\Delta(x)$ engendré par l'ensemble $E$.
|
||||
|
||||
La difficulté de la poursuite asymptotique est la résolution de l'équation dynamique NL
|
||||
\[c(z_1 \dots z_n , u \dots u^{(k)} ) y_c^{(n)} - \sum_{i=1}^m \beta_{i-1} (y_c^{(i-1)} - z_i) \]
|
||||
\begin{rem}
|
||||
On fait la confusion entre rang et dimension.
|
||||
\end{rem}
|
||||
\end{defin}
|
||||
|
||||
Dans le cas des systèmes plats, la solution est obtenue via les sorties plates.
|
||||
\begin{example}
|
||||
\[ f_1(x) = \vect{x_1 \\ x_2 \\ 2}, f_2(x) =
|
||||
\begin{bmatrix}
|
||||
x_1 & x_3 \\ x_2 & x_3 \\2 & x_3
|
||||
\end{bmatrix}
|
||||
\text{ et }f_3(x) = \vect{x_2 \\ x_2 \\ 0} \]
|
||||
|
||||
\begin{dfn}[Platitude]
|
||||
Un système est dit plat s'il a des sorties plates. Tous les états et entrées de commande du système sont exprimés en fonction des sorties plates et d'un nombre fini de leurs dérivées.\\
|
||||
Si $x_2 = 0$, alors $\Delta(x) = vect\{( \vect{x_1 \\ 0 \\ 2} ) \} \text{ et }dim=1$.
|
||||
|
||||
\noindent Cas SISO : $\dot{x} = f(x,u)$ est plat si \[\exists y \in \R \tq x = \phi(y,y^{(1)},\dots,y^{(\beta)}) \et u=\psi(y,y^{(1)},\dots,y^{(\delta)}), \beta,\delta \in \N\]
|
||||
Si $x_2 \neq 0$, alors $\Delta(x) = vect\{(\vect{x_1 \\ x_2 \\ 2},\vect{1 \\ 1 \\ 0})\} \text{ et }dim=2$.
|
||||
\end{example}
|
||||
|
||||
\noindent Cas MIMO : $\dot{x} = f(x,u)$ est plat si \[\exists y \in \R^p \tq x = \phi(y_1,\dots,y_1^{(\beta_1)},\dots,y_p^{(\beta_p)}) \et u=\psi(y_1,y_1^{(\delta_1)},\dots,y_p^{(\delta_p)}), \beta_i,\delta_i \in \N\]
|
||||
\end{dfn}
|
||||
\section{Commandabilité (atteignabilité, contrôlabilité)}
|
||||
|
||||
\begin{exemple}
|
||||
Montrer que le système suivant est plat avec pour sorties plates $y_1=x_1$ et $y_2=x_2$ :
|
||||
Soit le système non-linéaire (1) (affine en la commande)
|
||||
\[ \dot{x} = f(x) + g(x)u = f(x) + \sum_{i=1}^m g_i(x) u_i, \quad x \in \R^n \text{ et }u \in \R^m \]
|
||||
|
||||
\begin{defin}[Commandabilité]
|
||||
Un système est\emph{ commandable} ssi $\forall x \in \R^n, \exists u$ tel que $x$ est atteignable dans un temps fini.
|
||||
\end{defin}
|
||||
|
||||
\begin{thm}[Théorème de Commandabilité]
|
||||
Le système (1) est commandable ssi la sous-algèbre de Lie $\D = \{g_1 \dots g_m, \Lc(E)\}$ avec $E=\{g_1 \dots g_m,f\}$ est de dimension $n$.
|
||||
\end{thm}
|
||||
|
||||
\begin{example}[linéaire]
|
||||
\[ \dot{x} = Ax + Bu \]
|
||||
|
||||
\[ E = \{Ax,B\}, [B,Ax] = AB \]
|
||||
\[ [AB,Ax] = A^2B, \dots, A^{n-1}B, \dots \]
|
||||
\[ \Lc(E) = vect \{AB,A^2B,\dots\} \]
|
||||
|
||||
suivant Cayley Hamilton:
|
||||
\[ \D = \{B,vect \{AB,AB^2,\dots,A^{n-1}B\}\}\]
|
||||
|
||||
$dim \D = rang (B AB \dots A^{n-1}B)$ théorème de Kalman
|
||||
\end{example}
|
||||
|
||||
\section{Observabilité (distingabilité)}
|
||||
Soit le système NL (2) (affine en la commande) :
|
||||
\begin{align*}
|
||||
\dot{x_1} & = u_2 \\
|
||||
\dot{x_2} & = x_2 + x_3u_2 \\
|
||||
\dot{x_3} & = x_1u_1
|
||||
\intertext{ On peut donc écrire : }
|
||||
x_1 & = y_1 \\
|
||||
x_2 & = y_2 \\
|
||||
x_3 & = \frac{\dot{y_2-y_2}}{\dot{y_1}} \\
|
||||
u_2 & = \dot{y_1}\\
|
||||
u_1 & = \frac{\dot{x_3}}{y_1} = \frac{(\ddot{y_2}-\dot{y_2})\dot{y_2}-\ddot{y_1}(\dot{y_2}-y_2)}{y_3(\dot{y_1})^2}
|
||||
\end{align*}
|
||||
\end{exemple}
|
||||
|
||||
Un autre intérêt de la platitude est la planification simple de trajectoire.
|
||||
|
||||
\begin{thrm}
|
||||
[Principe de la planification de trajectoire]
|
||||
La planification peut comporter des contraintes sur la commande (énergie, saturation, ...) et sur les états (obstacles, limitation de vitesse, d'accélération...)
|
||||
Pour les systèmes plats, la planification est réalisée sur les sorties plates $y\in\R^p$ et la commande est déduite par $u=\psi(y_1,\dots,y_p^{(\delta_p)})$
|
||||
\end{thrm}
|
||||
|
||||
\begin{exemple}
|
||||
[Bras de robot avec $n$ degrés de libertés et $n$ actionneurs]
|
||||
\[ M(q) \dot{q} + B(q,\dot{q}) = K(q,\dot{q}) u\]
|
||||
|
||||
$q$ : coordonnées généralisées $q\in\R^n$
|
||||
|
||||
$B(q,\dot{q})$ : vecteur des forces centrifuges et de Coriolis
|
||||
|
||||
$K(q,\dot{q})$ : matrice d'influence avec $rang(K)=n$
|
||||
|
||||
Le système est plat où $q\in\R^n$ sont les sorties plates.\\
|
||||
|
||||
La planification de trajectoire est réalisée sur les $q$, puis $u=K^{-1}(q,\dot{q})(M(q)\dot{q} + B(q,\dot{q}))$\\
|
||||
|
||||
\newpage
|
||||
Commande en cassecade \footnote{Momo m'a tuer} :
|
||||
\imgt{7/1}
|
||||
|
||||
\[ C_0(p) = K >>1, \quad H_0(p) = \frac{H_1(p)}{1+KH_1(p)} \approx \frac{1}{K} \]
|
||||
\end{exemple}
|
||||
|
||||
\newpage
|
||||
\section*{Commandes hiérarchisées}
|
||||
|
||||
\subsection*{Échelles de temps}
|
||||
|
||||
Soit le système (1) $\acc{\dot{x_1} & = \epsilon f_1(x_1,x_2,u)}{\dot{x_2} & = f_2(x_1,x_2,u)}$ avec $f_1$ et $f_2$ lisses (de classe $C^{\infty}$), avec $x_1\in\R^{n_1}$ et $x_2\in\R^{n_2}$.
|
||||
|
||||
On suppose que $0 < \epsilon << 1$.
|
||||
|
||||
On suppose $\tau = \epsilon t$ nouveau temps: $\tau$ est plus lent que $t$.
|
||||
|
||||
Ainsi, le système (1) dans la nouvelle échelle temporelle est donnée par
|
||||
|
||||
\begin{align*}
|
||||
\dd{x_1}{\tau} & = f_1(x_1,x_2,u) \text{ Dynamique lente est d'ordre 0 en } 1/\epsilon \\
|
||||
\dd{x_2}{\tau} & = \frac{1}{\epsilon} f_2(x_1,x_2,u) \text{ Dynamique rapide est d'ordre 1 en }1/\epsilon
|
||||
\dot{x} & = f(x) + g(x)u \\
|
||||
y & = h(x)
|
||||
\end{align*}
|
||||
|
||||
Ainsi, dans le cas d'un point d'équilibre stable, $x_2$ converge rapidement vers le voisinage dépendant de $\epsilon$, d'un point d'équilibre de $f_2=0$.
|
||||
\begin{defin}
|
||||
Un système est \emph{observable} si $\forall x_1,x_2 \in \R^n$ 2 conditions initiales telles que $x_1 \neq x_2$, $\exists$ une commande $u$ admissible telle que les sorties soient distinctes, $\forall t \geq t_0$ ($t_0$ instant initial).
|
||||
\end{defin}
|
||||
|
||||
\subsection*{Détermination du voisinage}
|
||||
Pour $\epsilon = 0$, les points d'équilibre du système (1) forment la variété :
|
||||
\[ \Sigma_0 = \{ (x_1,x_2,u)/ f_2(x_1,x_2,u) = 0 \} \]
|
||||
\begin{defin}[Espace d'observabilité]
|
||||
$\mathcal{V}$ est l'espace d'observabilité constitué de toutes les combinaisons linéaires obtenues à partir des dérivées de Lie $L_f$ et $L_g$ des fonctions $h_j(x),j=1 \dots p$ telles que $y\in\R^p$
|
||||
\[ \mathcal{V} = \{h_j,L_fh_j, L_g h_j, L^2_f h_j,\dots L_g L_f h_j, L_f L_g h_j,\dots \}\]
|
||||
|
||||
alors que pour $\epsilon \neq 0$, les points d'équilibre forment la variété
|
||||
\[ \Sigma_{\epsilon} = \{ (x_1,x_2,y) / f_1(x_1,x_2,u) = 0 \et f_2(x_1,x_2,y) \neq 0 \} \]
|
||||
Soit $\nabla \mathcal{V}$ l'ensemble des différentielles (gradient) des éléments de $\mathcal{V}$ :
|
||||
|
||||
On a $\Sigma_{\epsilon} \subset \Sigma_0$ donc $\Sigma_{\epsilon}$ dégénère en $\Sigma_0$ pour $\epsilon=0$.
|
||||
\[ \nabla \mathcal{V} = \{ \nabla h_j, \nabla L_f h_j ... \} \]
|
||||
\end{defin}
|
||||
|
||||
\img{0.5}{7/2}
|
||||
\begin{thm}[Théorème d'observabilité]
|
||||
Le système (2) est localement observable en $x_0$ si $dim \nabla \mathcal{V}(x_0) = n$ et il est observable si $\forall x \in \R^n, dim \nabla \mathcal{V}(c) = n$
|
||||
\end{thm}
|
||||
|
||||
L'objectif est d'avoir seulement à faire converger $x_1 \tdv x_1^*$.\\
|
||||
|
||||
À partir du théorème des fonctions implicites, nous avons l'existence de $X_2 \tq x_2 = X_2(x_1,u)$.
|
||||
|
||||
\begin{dfn}
|
||||
On définit la variété
|
||||
\[ \Sigma_{0,\epsilon} = \{ (x_1,x_2) / f_2(x_1,x_2,u,\epsilon) = 0 \} \]
|
||||
avec $\dot{u} = \epsilon v$ où $v$ est une fonction bornée.
|
||||
\end{dfn}
|
||||
|
||||
La variété $\Sigma_{0,\epsilon}$ est obtenue à partir de $\Sigma_0$ avec une faible variation de la commande.
|
||||
|
||||
\begin{prop}
|
||||
Soit le système (1) avec $rang(\drond{f_2}{x_2}) = n_2$, alors $\exists X_2(x_1,u,\epsilon)$ tel que $\forall u$ vérifiant $\dot{u} = \epsilon v$, $v$ bornée, $(x_1,x_2 \in \Sigma_{0,\epsilon}$ avec $x_2 = X_2(x_1,u,\epsilon)$.
|
||||
\end{prop}
|
||||
|
||||
Interprétation :
|
||||
La variété $\Sigma_0 \Leftrightarrow x_2=X_2(x_1,u)$, obtenue pour $\epsilon=0$, continue d'exister pour $\epsilon \neq 0$ et suffisamment petit si $\dot{u}=\epsilon v$, $v$ bornée.
|
||||
|
||||
\begin{exemple}
|
||||
[MMC]
|
||||
\[ \acc{
|
||||
L\dd{i}{t} & = u-Ri - k\omega \text{ Dynamique électrique}}{
|
||||
J\dd{\omega}{t} & = Ki - \alpha\omega -C_r \text{ Dynamique mécanique temps lent}}\]
|
||||
|
||||
On pose $\epsilon = L << 1$, donc le temps rapide $\tau = \frac{t}{\epsilon}$\\
|
||||
|
||||
Identification avec le système (1) : $x_1=\omega$ et $x_2 =i$.
|
||||
|
||||
Pour $\epsilon=0$, $\Sigma_0$ est donnée
|
||||
\[ i = \frac{u-k\omega}{R} = X_2(x_1,u) \]
|
||||
|
||||
Ainsi, la dynamique lente est donnée par
|
||||
\[ J \dd{\omega}{\tau} = \epsilon(k(\frac{u-k\omega}{R}) - \alpha \omega - C_r) \]
|
||||
|
||||
En temps lent, la nouvelle expression est
|
||||
\[ J \dd{\omega}{t} = -(\frac{k^2}{R}+\alpha) \omega - C_r + \frac{k}{R}u \]
|
||||
|
||||
On peut améliorer l'approximation de la variété $\Sigma_{0,\epsilon}$ via un DL du 1er ordre.
|
||||
|
||||
\[ i = \frac{u-k\omega}{R} + \frac{L}{R}(\dot{u}-\frac{k}{J}(k(\frac{u-k\omega}{R})-\alpha\omega-C_r)) + \mathcal{O}(L^2) \]
|
||||
|
||||
Par exemple, si on veut avoir $i_0=0$, alors $\Sigma_0 = k\omega$. Pour garder $i_0=0$ pour $\Sigma_{0,\epsilon}$, on doit imposer une variation lente de $u$ (lente par rapport à $L\dd{}{t}$
|
||||
\[ \dot{u} = -\frac{k}{J}(\alpha\omega+C_r) - \mathcal{O}(L^2) \]
|
||||
\end{exemple}
|
||||
|
||||
\begin{rmq}
|
||||
$C_r = -\frac{\dot{u}J}{k}$ est utilisée pour estimer $C_r$ en modulant $\dot{u}$ afin que $i_0$ reste aussi plat que possible et $\omega=0$.
|
||||
\end{rmq}
|
||||
|
||||
\subsection*{Hiérarchisation par commande à grand gain}
|
||||
|
||||
Soit le système (1), où la commande n'intervient que sur $x_2$ linéairement :
|
||||
\[
|
||||
\acc{ \dot{x_1} & = f_3(x_1,x_2) }{ \dot{x_2} & = f_2(x_1,x_2) + u }, \quad x_1 \in \R^{n_1}, x_2 \in \R^{n_2}, u \in\R^{n_2}
|
||||
\]
|
||||
|
||||
Soit $x_2^*$ la trajectoire consigne à imposer à $x_2$. Avec comme hypothèse $f_2(x_1,x_2)$ bornée, nous appliquons la commande à grand gain
|
||||
\[ u = -\frac{k}{\epsilon}(x_2-x_2^*)\]
|
||||
où $\epsilon<< 1$ et $k$ matrice diagonale définie positive.
|
||||
|
||||
Ainsi, suivant la nouvelle échelle de temps $\tau = \frac{t}{\epsilon}$
|
||||
\[ \acc{
|
||||
\dd{x_1}{\tau} & = \epsilon f_1(x_1,x_2) \quad \text{dynaique lente}}{
|
||||
\dd{x_2}{\tau} & = \epsilon f_2(x_1,x_2) - k(x_2-x_2^*) \quad \text{perturbation et dynamique de convergence rapide}
|
||||
}\]
|
||||
|
||||
$\Sigma_0$ est la variété $x_2 = x_2^*$.
|
||||
|
||||
Pour $\epsilon\neq 0$, $\Sigma_{0,\epsilon}$ est la variété $x_2=x_2^*+k\epsilon f_2(x_2,x_2^*)$
|
||||
|
||||
La dynamique lente est $\dd{x_1}{\tau} = \epsilon f_1(x_1,x_2^*)$. Par conséquent la consigne $x_2^*$ (commande fictive) peut servir à commander la dynamique lente.
|
||||
|
||||
\newpage
|
||||
\section*{Commande par backstepping}
|
||||
|
||||
Soit un système sous forme triangulaire (apparition successive des différentes commandes) :
|
||||
\begin{example}[linéaire]
|
||||
\begin{align*}
|
||||
\dot{x_1} & = f_1(x_1) + x_2 \\
|
||||
\dot{x_2} & = f_2(x_1,x_2) + x_3 \\
|
||||
& \vdots \\
|
||||
\dot{x_n} & = f_n(x_1,\dots x_n) + u
|
||||
\dot{x} & = Ax + Bu = f(x) + g(x)u\\
|
||||
y & = Cx = h(x)
|
||||
\end{align*}
|
||||
|
||||
\subsection*{Procédure de synthèse}
|
||||
|
||||
\paragraph{Étape 1} Afin d'imposer la consigne $x_1^*$, on utilise la fonction de Lyapunov
|
||||
\[ V_1(x_1) = \frac{1}{2}(x_1 - x_1^*)^2 \]
|
||||
Pour assurer la stabilité, il faut que $\dot{V_1}(x_1)$ soit définie négative.
|
||||
\begin{align*}
|
||||
\dot{V_1}(x_1) & = (x_1-x_1^*)(\dot{x_1} - \dot{x_1^*}) \\
|
||||
& = (x_1 - x_1^*)(f_1(x_1) + x_2 - \dot{x_1^*})
|
||||
\intertext{On cherche donc $x_2$ pour que}
|
||||
\dot{V_1}(x_1) & = \alpha_1(x_1-x_1^*)^2 \quad \avec \alpha_1 < 0 \\
|
||||
x_2^* & = \alpha_1(x_1-x_2^*) - f_1(x_1) + \dot{x_1^*}
|
||||
\mathcal{V} & = \{ h(x), L_fh(x), L_gh, L^2_fh ,L_g^2h , L_fL_gh , L_gL_fh \dots \} \\
|
||||
\mathcal{V} & = \{ Cx, C.Ax (=L_fh(x)), C.B (=L_gh), CA^2x (=L^2_fh) ,0 (=L_g^2h) , 0 (=L_fL_gh) , CAB (=L_gL_fh) \dots \} \\
|
||||
\nabla \mathcal{V} & = \{ C , CA , 0 CA^2 , 0 , 0 , 0 \dots \} \\
|
||||
dim \nabla \mathcal{V} & = rang \vect{ C \\ CA \\ CA^2 \\ \vdots \\ CA^{n-1}} \quad \text{Critère de Kalman}
|
||||
\end{align*}
|
||||
\end{example}
|
||||
|
||||
Cela assure la convergence asymptotique de $x_1$ vers $x_1^*$.
|
||||
\begin{rem}
|
||||
l'action de la commande intervient dans l'observabilité. Cette contrainte est écartée dnas le cas linéaire.
|
||||
\end{rem}
|
||||
|
||||
\paragraph{Étape 2} Faire converger $x_2$ vers $x_2^*$. On utilise la nouvelle fonction de Lyapunov
|
||||
\[ V_2(x_1,x_2) = \frac{1}{2}(x_1-x_1^*)^2 + \frac{1}{2}(x_2-x_2^*)^2 \]
|
||||
On veut $\dot{V_2}(x_1,x_2)$ définie négative :
|
||||
\begin{align*}
|
||||
\dot{V_2}(x_1,x_2) & = (x_1-x_1^*)(\dot{x_1} - \dot{x_1^*}) + (x_2-x_2^*)(\dot{x_2} - \dot{x_2^*}) \\
|
||||
& = \alpha_1(x_1-x_1^*)^2 + \alpha_2(x_2-x_2^*)^2
|
||||
\intertext{Pour avoir une hiérarchisation dynamique, on pose $\alpha_2 < \alpha_1 < 0$ (la dynamique 2 est plus rapide que la 1)}
|
||||
(x_2-x_2^*)(\dot{x_2} - \dot{x_2^*}) & = \alpha_2(x_2-x_2^*)^2 \\
|
||||
(x_2-x_2^*)(f_2(x_1,x_2) + x_3 - \dot{x_2^*}) & = \alpha_2(x_2-x_2^*)^2 \\
|
||||
x_3^* & = \alpha_2(x_2-x_2^*) - f_2(x_1,x_2) + \dot{x_2^*}
|
||||
\end{align*}
|
||||
La démarche est la même à l'étape $n$ :
|
||||
\[ u = \dot{x_n^*} - f_n(x_1,\dots,x_n) + \alpha_n(x_n-x_n^*) \]
|
||||
avec $\alpha_n < \alpha_{n-1} < \dots < \alpha_2 < \alpha_1$
|
||||
|
||||
\begin{rmq}
|
||||
Cette méthode est généralisable à des systèmes sans forme :
|
||||
\begin{align*}
|
||||
\dot{x_1} & = f_1(x_1) + g_1(x_1)x_2 \\
|
||||
\dot{x_2} & = f_2(x_1,x_2) + g_2(x_1,x_2)x_3 \\
|
||||
& \vdots \\
|
||||
\dot{x_n} & = f_n(x_1,\dots,x_n) + g_n(x_1,\dots,x_n)u
|
||||
\end{align*}
|
||||
sur $\D = \{x_1,\dots,x_n \tq g_1 \neq 0,\dots,g_n\neq 0 \}$
|
||||
\end{rmq}
|
||||
|
||||
|
||||
\newpage
|
||||
\section*{Rejet de perturbation}
|
||||
|
||||
\subsection*{Cas SISO}
|
||||
\[ (1) \acc{ \dot{x} & = f(x) + g(x)u + p(x) w }{ y & = h(x) } \]
|
||||
|
||||
Même principe que pour la linéarisation par bouclage, on dérive la sortie par rapport au temps :
|
||||
\[ \dot{y} = \drond{h(x)}{x} \dot{x} = L_fh(x) + L_gh(x) u + L_ph(x) w \]
|
||||
|
||||
\paragraph{Cas 1} $L_ph(x) \neq 0$\\
|
||||
Si $L_gh(x) \neq 0$ et la perturbation $w$ est mesurable (rarement), alors le rejet de la perturbation est obtenu par
|
||||
\[ u = (L_gh(x))^{-1}(v-L_fh(x) - L_ph(x)w) \quad \text{avec trivialement } v = \dot{y}\]
|
||||
Si la perturbation n'est pas mesurable, on réalise une linéarisation dynamique avec $x_{n+1} = u$ et $x_{n+2} = w$ mais dans ce cas la perturbation $w$ doit être canonique, i.e. $\exists \alpha \in \N \tq w^{(\alpha)} = 0$.
|
||||
|
||||
Ainsi, on dérive la sortie jusqu'à disparition de la perturbation puis on linéarise.\\
|
||||
|
||||
\noindent Si $L_gh(x) = 0$, on calcule les dérivées d'ordres supérieurs de la sortie jusqu'à apparition de la commande (linéarisation dynamique).
|
||||
|
||||
\paragraph{Cas 2} $L_ph(x) = 0$.\\
|
||||
Si $L_gh(x)\neq0$, la perturbation est rejetée pour
|
||||
\[ u = (L_gh(x))^{-1}(v-L_fh(x)) \]
|
||||
Su $L_gh(x) = 0$, on dérive une deuxième fois la sortie.
|
||||
|
||||
\begin{prop}
|
||||
Soient $r$ le degré relatif correspondant à $L_gL_f^{r-1}h(x) \neq 0$ et $\sigma$ le plus petit entier pour lequel $L_pL_f^{\sigma-1}h(x) \neq0$, alors :
|
||||
\begin{itemize}
|
||||
\item si $r<\sigma$ la perturbation $w$ est rejetée par la commande linéarisante
|
||||
\item si $r=\sigma$ la perturbation $w$ est rejetée si elle est mesurable
|
||||
\item si $r>\sigma$ le rejet de $w$ ne peut se faire que par une linéarisation dynamique : observateur NL si $w$ n'est pas canonique
|
||||
\end{itemize}
|
||||
\end{prop}
|
||||
|
||||
|
||||
\subsection*{Cas MIMO}
|
||||
\[ \acc{ \dot{x} & = f(x) + \sum_{i=1}^m g_i(x)u_i + p(x) w }{ y & = h(x) }, \quad x \in \R^n, u \in \R^m, y \in \R^d \]
|
||||
Même principe que le cas SISO mais une linérisation MIMO où chaque nouvelle entrée $v_i$, permet de rejeter les perturbations sur $y_i$.
|
||||
|
||||
\begin{rmq}
|
||||
L'incertitude sur le modèle peut être interprétée comme une perturbation. En effet, le modèle (1) s'écrit
|
||||
\[ \acc{ f(x) & = f(x) + \Delta f(x) + g(x) u + \Delta g(x) u }{ y & = h(x) } \]
|
||||
|
||||
Suivant l'analyse sur le bouclage linéarisant, le rejet d'incertitude est obtenu si
|
||||
\begin{align*}
|
||||
L_{\Delta f} L_f^i h = 0 & 0 \leq i \leq r-2 \\
|
||||
L_{\Delta g} L_f^i h = 0 & 0 \leq i \leq r-1
|
||||
\end{align*}
|
||||
|
||||
Ce résultat ne peut être vérifié qu'a posteriori car $\Delta f$ et $\Delta g$ sont inconnues.
|
||||
\end{rmq}
|
||||
|
||||
\newpage
|
||||
\section*{Robustesse en NL - Commande par mode glissant}
|
||||
|
||||
%\imgt{8/1}
|
||||
|
||||
Un terme $u_r$ est ajouté à la commande de départ $u_{eq}$ ...
|
||||
|
||||
\begin{exemple}[Onduleur de tension commandé en courant]
|
||||
Sans avoir à modéliser la charge, on veut imposer la forme de courant :
|
||||
%\imgt{8/2}
|
||||
\end{exemple}
|
||||
|
||||
\subsection*{Éléments de synthèse de la commande}
|
||||
|
||||
\begin{enumerate}
|
||||
\item Synthétiser une commande sans prise en compte de l'incertitude ni de la perturbation : surface de glissement (poursuite asymptotique)
|
||||
\item Commande gardant les états sur la surface de glissement ayant pour hypothèse l'incertitude ou la perturbation bornées : variation de la structure du système par commutation
|
||||
\end{enumerate}
|
||||
|
||||
\begin{dfn}[Surface de glissement ou commutation]
|
||||
$S(x,t)$ est la surface autour (dans un voisinage) de laquelle le système évolue avec une dynamique imposée par $S$.
|
||||
\end{dfn}
|
||||
|
||||
\begin{dfn}[Système à structure variable]
|
||||
Un système est à structure variable si son entrée commute entre deux valeurs suivant une logique bien spécifique $\sigma(x)$
|
||||
%\img{0.5}{8/3}
|
||||
\end{dfn}
|
||||
|
||||
\begin{dfn}[Commande par mode glissant]
|
||||
Commande discontinue ayant pour objectif de faire converger le système en $S$. On utilise la fonction de Lyapunov \[ V(x,t) = \frac{1}{2}S^2(x,t) \]
|
||||
|
||||
Pour avoir convergence vers la surface de glissement, il faut avoir
|
||||
\[ \dot{V}(x,t) = S(x,t) \dot{X}(x,t) \leq 0 \]
|
||||
|
||||
$\sigma(x)$ est la logique qui impose $S\dot{S} \leq 0$
|
||||
\end{dfn}
|
||||
|
||||
\begin{rmq}
|
||||
$S\dot{S}$ est la condition d'existence d'un régime glissant sur la surface $S$.
|
||||
\end{rmq}
|
||||
|
||||
\subsection*{Application de la commande par mode glissant}
|
||||
|
||||
La poursuite asymptotique est une méthode de détermination de $S$.
|
||||
|
||||
Soit $\epsilon(t) = y_c(t) - y(t)$ où $y_c$ est la consigne et $y$ la sortie.
|
||||
|
||||
On pose $S = \epsilon^{(m)}(t) + \beta_{m-1}\epsilon^{(m-1)} + \dots + \beta_1 \dot{\epsilon} + \beta_0 \epsilon$ où $\beta_i, i =0,\dots,m-1$ sont choisis pour imposer la dynamique de convergence.
|
||||
|
||||
\begin{rmq}
|
||||
Par exemple, on peut choisir $S = (\frac{d}{dt} + \ld)^m \epsilon, \ld >0$
|
||||
|
||||
Choix de la commande (bouclage linéarisant)
|
||||
\end{rmq}
|
||||
|
||||
On pose $m=r-1$ où $r$ est le degré relatif et on a
|
||||
\begin{align*}
|
||||
u & = \frac{1}{L_gL_f^{r-1}h(x)} (-L_f^rh(x) + y_c^{(r)} + \sum_{i=1}^r \beta_{i-2} \epsilon^{(i-1)} + \alpha K sgn(S) ) \\
|
||||
u & = \frac{1}{L_gL_f^{r-1}h(x)} (-L_f^rh(x) + y_c^{(r)} + \dot{S} + \alpha K sgn(S) )
|
||||
\end{align*}
|
||||
|
||||
|
||||
Ainsi en utilisant le changement de variable $z_i = L_f^{i-1}h(x) = \phi_i(x), i = 1,\dots,r$, la commande linéarisante avec poursuite asymptotique et robuste s'écrit :
|
||||
\[ u = \frac{1}{b(z,\eta)} (-a(z,\eta) + y_c^{(r)} + \dot{S} + \alpha K sgn(S)) \]
|
||||
avec pour modèle normal :
|
||||
\begin{align*}
|
||||
\dot{z_1} & = z_2 \\
|
||||
& \vdots \\
|
||||
\dot{z_{r-1}} & = z_r \\
|
||||
\dot{z_r} & = y_c^{(r)} + \dot{S} + \alpha K sgn(S) + \Delta a (z,\eta) \\
|
||||
\dot{\eta} & = q(z,\eta) + \Delta q(z,\eta) + \Delta p(z,\eta)u \\
|
||||
\avec & \Delta a (z,\eta) = L_{\Delta f} L_f^{r-1} h(x), \Delta q(z,\eta) = L_{\Delta f} \eta, \Delta p(z,\eta) = L_{\Delta f} \eta
|
||||
\end{align*}
|
||||
|
||||
On suppose que $|\Delta a (z,\eta)| < K < \infty$ donc pour avoir $\dot{z_r} = y_c^{(r)}$, on doit poser $\dot{S} = - \alpha K sgn(S) - \Delta a(z,\eta)$.
|
||||
|
||||
Cas $S>0 \Rightarrow \dot{S} < -K(\alpha-1) < 0 \si \alpha > 1$
|
||||
|
||||
Cas $S<0 \Rightarrow \dot{S} > K(\alpha-1) > 0 \si \alpha < 1$
|
||||
|
||||
Ainsi on vérifie la condition d'existence du régime glissant, alors quand la trajectoire atteint $S$, alors $y \tdv y_c$ suivant la dynamique imposée par $S$.
|
||||
\end{document}
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "main"
|
||||
%%% End:
|
||||
|
|
Loading…
Reference in a new issue