finalisation du cours de 424

This commit is contained in:
Pierre-antoine Comby 2019-04-22 20:10:51 +02:00
parent bb087c1d31
commit c5ff7d04f5
6 changed files with 89 additions and 208 deletions

View file

@ -3,16 +3,11 @@
% Corrigé jusqu'au 4.3 inclus, A 28/02/2015.
\begin{document}
\paragraph{Objectifs } Donner les connaissances fondamentales sur l'analyse et la commande des systèmes non linéaires en abordant les techniques classiques. Le but est d'avoir une compréhension plus profonde des hypothèses sous-jacentes à la commande non linéaire, des outils disponibles pour l'analyse, la synthèse et les limites des résultats obtenues.
\begin{center}
\begin{itemize}
\item Analyse de la stabilité
\item Outils pour la commande non linéaire
\item Synthèse de lois de commande non linéaire
\end{itemize}
\end{center}
\paragraph{Objectifs du Module}: Donner les connaissances fondamentales sur l'analyse et la commande des systèmes non linéaires en abordant les techniques classiques. Le but est d'avoir une compréhension plus profonde des hypothèses sous-jacentes à la commande non linéaire, des outils disponibles pour l'analyse, la synthèse et les limites des résultats obtenues.
\newpage
Dans la première partie on s'interessera àl'analyse de la stabilité d'un système via différentes méthodes notamment la méthode du premier harmonique (dans le chapitre 4) et l'étude de la fonction de lyapunov (dans le chapitre 5).
Dans la seconde partie on s'interessera à l'élaboration de commande du système non-linéaire, qui seront appliquée en TP.
\section{Définition}
\begin{defin}
@ -55,10 +50,11 @@ On peut donc représenter les systèmes selon le graphe suivant:
\end{center}
\section{Passage des EDP vers EDO }
Le passage s'effectue par approximation, car le modèle obtenu est de dimension infinie.
Très souvent les systèmes étudiés sont régit par des équations aux dérivées partielles, pour faciliter leur étude on simplifie ces équations par approximation, car le modèle obtenu est de dimension infinie.
\[\vec{\omega}(x,y,z,t) \approx \sum_{i=1}^Nq_i(t)\vec{\eta}(x,y,z)\]
La stabilité sera analysée sur l'aspect temporel car on ne peut pas avoir une dimension spatiale instable.
De plus La stabilité sera analysée sur l'aspect temporel car on ne peut pas avoir une dimension spatiale instable.
\begin{example}[Poutre flexible]
On regarde les différent modes d'excitations, obtenus par la méthode des éléments finis.\\
@ -72,24 +68,24 @@ Dans le cas général, les systèmes sont décrits par la représentation d'éta
y = g(x,t,u)& \text{ avec, } & x\in \mathbb{R}^n\text{, }u\in \mathbb{R}^m\text{, }y\in \mathbb{R}^l
\end{matrix} \right.\]
\noindent \underline{Exemple}: Système LTV
\begin{exemple} Système LTV
\begin{align*}
f(x,t,u) = A(t)x + B(t) u\\
g(x,t,u) = C(t)x +D(t)u
\end{align*}
\end{exemple}
Ainsi la solution est noté $\chi (t,x_0)$, qui donne la valeur de $x$ à l'intsant t pour une condirtion initiale $x_0$
\begin{defin}
La \emph{trajectoire} $\chi$ d'un système dynamique $G$ sur $\mathcal{D}\subset \R^n$$n$ est la dimension de $G$ , est une application :
La \emph{trajectoire} $\chi$ d'un système dynamique $\Sigma$ sur $\mathcal{D}\subset \R^n$$n$ est la dimension de $\Sigma$ , est une application :
\[
\chi: \R \times \mathcal{D} \to \mathcal{D}
\]
vérifiant les propriétés:
\begin{enumerate}
\item Continuité $\chi $ est continue su r$\R \times \mathcal{D}$ et $\forall x \in \mathcal{D}, \chi (\cdot,x) $ est dérivable sur $\R$
\item Continuité $\chi $ est continue sur $\R \times \mathcal{D}$ et $\forall x \in \mathcal{D}, \chi (\cdot,x) $ est dérivable sur $\R$
\item Consistance $\chi(0,x) = x$
\item Propriété de Groupe $ \chi(t,\chi(\tau,x))=\chi(t+\tau,x)$
\end{enumerate}

View file

@ -20,10 +20,14 @@ Un système dynamique sur $\D \subset \R^n$, où $n$ est la dimension du systèm
\begin{itemize}
\item On dénote le système $(\D,\R,s)$ par $G$, où $\chi(\cdot,\cdot)$ est la trajectoire et $\D$ est l'espace de phase.
\item On dénote la trajectoire $\chi(t,\cdot) : \D \rightarrow\D$ par $\chi_t(x_0)$ ou $\chi_t$.
\item Suivant l'axiome de consistance, $\chi_0(x_0)=x_0$ et suivant la propriété de groupe :
\end{itemize}
\end{rem}
\begin{prop}
Suivant l'axiome de consistance, $\chi_0(x_0)=x_0$ et suivant la propriété de groupe :
\[ (\chi_{\tau} \circ \chi_t)(x_0) = (\chi_t \circ \chi_{\tau})(x_0) = \chi_{t+\tau}(x_0) \]
Ainsi l'application inverse de $\chi_t$ est $\chi_{-t}$$\chi_t$ est un homéomorphisme (bijective, continue, inverse continue).
\end{prop}
\begin{proof}
En effet, montrons que $\chi_t$ est injective.
Soit $y,z\in \D$ tels que $\chi_t(z)=\chi_t(y)$.
@ -32,9 +36,7 @@ On a $z=s_0(z)=\chi(0,z)=\chi(t-t,z)=\chi(-t,\chi(t,z))=\chi(-t,\chi(t,y))=\chi(
$\chi_t$ est surjective : $\forall z \in D, \exists y z\in \D$ tel que $y=\chi(-t,z)$.
Enfin, $\chi_t$ est continue sur $\R$ donc $\chi_{-t}$ est continue.
\end{itemize}
\end{rem}
\end{proof}
\begin{exemple}
Système linéaire causal de dimension $n$ ($n$ variables d'état)
@ -58,8 +60,8 @@ Système linéaire $f(x)=\dd{e^{At}x}{t}|_{t=0}=Ax$
\end{exemple}
\emph{Nous avons défini une trajectoire, mais à partir de $\dot{x}=f(x)$, est-elle unique ?}
\section{Théorème du point fixe}
\section{Trajectoire et point d'équilibre}
\subsection{Théorème du point fixe}
\begin{thm}[Point fixe]
Soient $X$ un espace de Banach de norme $\|.\|$, $S$ un fermé de $X$ et $T:S\rightarrow S$ une application contractante sur $X$, i.e. $\exists \rho \in [0,1[$ tel que $\forall (x,y) \in S^2, ||T(x)-T(y)|| \leq \rho ||x-y||$,alors
\[ \exists ! x^* \in S \text{ tel que } T(x^*)=x^*\]
@ -120,6 +122,8 @@ $T:S \rightarrow S$ est contractante pour $\tau - t_0 \leq \min \{ \frac{r}{\alp
\paragraph{Rappel:}
Dans le cas linéaire, le système $\dot{x} =A x $ est stable si toutes ses valeurs propres sont à partie réelle négative, il existe un unique point d'équilibre $\overline{x}$ stable tq $\dot{x} =0$ (si $\det(A) \neq 0$n $\overline{x}=0$).
\subsection{Points d'équilibres}
\begin{defin}
\begin{itemize}
\item Les \emph{points d'équilibre} d'un système vérifient $\dot{x_{eq}} = 0$
@ -191,7 +195,7 @@ Cette méthode est réalisée pour les systèmes du second ordre ,plan de phase
On élimine le temps de manière explicite ou non.
\end{itemize}
\end{enumerate}
Dans l'analyse de la stabilité on s'interresse au comportement dans un voisinage du point d'équilibre.
Dans l'analyse de la stabilité on s'intéresse au comportement dans un voisinage du point d'équilibre.
\begin{defin}
Pour déterminer \emph{l'index topologique} on utilise la méthode suivante:
@ -202,9 +206,9 @@ Pour déterminer \emph{l'index topologique} on utilise la méthode suivante:
\item Pour chaque point $x_n$ on évalue $f(x_n$) où $f$ vérifie $\dot{x} =f(x)$.
\item Tous les vecteurs $f(x_n)_{n=1...N}$ sont ramenés aux point d'équilibre.
\end{enumerate}
Ainsi \emph{l'index topologique} est la mesure de l'angle (modulo $2\pi$) que l'extrimité des vecteurs $(f(x_i))$ parcourt dans le sens trigonométrique.
Ainsi \emph{l'index topologique} est la mesure de l'angle (modulo $2\pi$) que l'extrémité des vecteurs $(f(x_i))$ parcours dans le sens trigonométrique.
\end{defin}
\begin{figure}
\begin{figure}[ht]
\centering
\begin{tikzpicture}
\node (x) at (0,0) {$\bullet$} node[above]{$\overline{x}$};
@ -247,7 +251,7 @@ Pour déterminer \emph{l'index topologique} on utilise la méthode suivante:
\caption{Détermination de l'index topologique}
\end{figure}
Il reste maintenat à chercher les trajectoires autour des points d'équilibres.
Il reste maintenant à chercher les trajectoires autour des points d'équilibres.
\subsection{Méthode isocline}
Pour cette méthode, il s'agit de poser :

View file

@ -1,7 +1,6 @@
\documentclass[main.tex]{subfiles}
\begin{document}
Il s'agit de regarder la stabilité, la convergence vers un point d'équilibre,...\\
On se place dans le cas présent en régime libre pour un système invariant, c'est à dire que $\dot{x} = f(x,u=0)$ et $y = g(x,u=0)$.\\
Il s'agit de regarder la stabilité, la convergence vers un point d'équilibre. On se place dans le cas présent en régime libre pour un système invariant, c'est à dire que $\dot{x} = f(x,u=0)$ et $y = g(x,u=0)$.\\
On pose $u=0$, car la stabilité et la dynamique du système sont des caractéristiques intrinsèques d'un système, donc indépendantes de l'entrée.\\
@ -28,8 +27,8 @@ On étudie donc le système autour de son point d'équilibre, en linéarisant so
\end{align*}
\begin{rem}
En N.L, la stabilité est associée aux points d'équilibre. Ainsi, un même système N.L peut avoir des points d'équilibre stables et instable.
Cette approximation peux être réalisé dans le cas d'un régime forcé:
En N.L, la stabilité est associée aux points d'équilibres. Ainsi, un même système N.L peut avoir des points d'équilibres stables et instables.
Cette approximation peux être également réalisée dans le cas d'un régime forcé:
\[
\begin{cases}
\dot{x} = f(x,u)\\
@ -192,8 +191,8 @@ $\exists \epsilon$ tel que le cycle limite $\subset$ cercle de centre (0,0) et d
\end{example}
\begin{thm}[Index de Poincaré]
Dans le plan de phase( pour un système d'ordre 2) avec $N$ le nombre de noeuds, centre et foyer et $S$ le nombre de points selles.\\
\begin{thm}[Index de Poincaré]~\\
Dans le plan de phase (pour un système d'ordre 2) avec $N$ le nombre de noeuds, centre et foyer et $S$ le nombre de points selles.\\
Si un cycle limite existe, les points d'équilibre que le cycle limite encercle sont tel que
\[
\boxed{N =S +1}

View file

@ -78,7 +78,7 @@ On fait la confusion entre rang et dimension.
\end{rem}
\end{defin}
\begin{example}
\begin{exemple}
\[ f_1(x) = \vect{x_1 \\ x_2 \\ 2}, f_2(x) =
\begin{bmatrix}
x_1 & x_3 \\ x_2 & x_3 \\2 & x_3
@ -88,7 +88,7 @@ x_1 & x_3 \\ x_2 & x_3 \\2 & x_3
Si $x_2 = 0$, alors $\Delta(x) = vect\{( \vect{x_1 \\ 0 \\ 2} ) \} \text{ et }dim=1$.
Si $x_2 \neq 0$, alors $\Delta(x) = vect\{(\vect{x_1 \\ x_2 \\ 2},\vect{1 \\ 1 \\ 0})\} \text{ et }dim=2$.
\end{example}
\end{exemple}
\section{Commandabilité (atteignabilité, contrôlabilité)}
@ -103,7 +103,7 @@ Un système est\emph{ commandable} ssi $\forall x \in \R^n, \exists u$ tel que $
Le système (1) est commandable ssi la sous-algèbre de Lie $\D = \{g_1 \dots g_m, \Lc(E)\}$ avec $E=\{g_1 \dots g_m,f\}$ est de dimension $n$.
\end{thm}
\begin{example}[linéaire]
\begin{exemple}[cas linéaire]
\[ \dot{x} = Ax + Bu \]
\[ E = \{Ax,B\}, [B,Ax] = AB \]
@ -114,7 +114,7 @@ suivant Cayley Hamilton:
\[ \D = \{B,vect \{AB,AB^2,\dots,A^{n-1}B\}\}\]
$dim \D = rang (B AB \dots A^{n-1}B)$ théorème de Kalman
\end{example}
\end{exemple}
\section{Observabilité (distingabilité)}
Soit le système NL (2) (affine en la commande) :
@ -127,11 +127,11 @@ y & = h(x)
Un système est \emph{observable} si $\forall x_1,x_2 \in \R^n$ 2 conditions initiales telles que $x_1 \neq x_2$, $\exists$ une commande $u$ admissible telle que les sorties soient distinctes, $\forall t \geq t_0$ ($t_0$ instant initial).
\end{defin}
\begin{defin}[Espace d'observabilité]
$\mathcal{V}$ est l'espace d'observabilité constitué de toutes les combinaisons linéaires obtenues à partir des dérivées de Lie $L_f$ et $L_g$ des fonctions $h_j(x),j=1 \dots p$ telles que $y\in\R^p$
\begin{defin}
$\mathcal{V}$ est \emph{l'espace d'observabilité} constitué de toutes les combinaisons linéaires obtenues à partir des dérivées de Lie $L_f$ et $L_g$ des fonctions $h_j(x),j=1 \dots p$ telles que $y\in\R^p$
\[ \mathcal{V} = \{h_j,L_fh_j, L_g h_j, L^2_f h_j,\dots L_g L_f h_j, L_f L_g h_j,\dots \}\]
Soit $\nabla \mathcal{V}$ l'ensemble des différentielles (gradient) des éléments de $\mathcal{V}$ :
On note $\nabla \mathcal{V}$ l'ensemble des différentielles (gradient) des éléments de $\mathcal{V}$ :
\[ \nabla \mathcal{V} = \{ \nabla h_j, \nabla L_f h_j ... \} \]
\end{defin}

View file

@ -78,28 +78,29 @@ La nouvelle entrée de commande est $v$ telle que
$u = \alpha(x) + \beta(x)v$ est le bouclage linéarisant statique car à un instant fixé, la linéarisation ne dépend que de $x$ à cet instant.\\
\subsubsection{Cas $r=n$}
\begin{tabular}{c|c}
\begin{minipage}[t]{0.5\linewidth}
Choix de la base :
\begin{align*}
\[\begin{array}{ll}
z_1 & = y = h(x) \\
z_2 & = \dot{y} = L_fh(x) \Rightarrow \dot{z_1} = z_2 \\
z_3 & = \ddot{y} = L_g^2h(x) \Rightarrow \dot{z_2} = z_3 \\
\vdots \\
y^{(n)} & = \dot{z_n} = L_f^nh(x) + L_gL_f^{n-1}h(x)u = v
\end{align*}
\end{minipage}
\end{array}\]
\end{minipage}&
\begin{minipage}[t]{0.5\linewidth}
Nouveau modèle :
\begin{align*}
\[\begin{array}{ll}
y & = z_1 \\
\dot{z_1} & = z_2 \\
&\vdots \\
&\vdots\\
\dot{z_{n-1}} & = z_n \\
\dot{z_n} & = a(z) + b(z)u = v
\end{align*}
\end{array}\]
\end{minipage}
\end{tabular}
On a donc la commande suivante :\[ u = \frac{v-a(z)}{b(z)} \text{ avec } b(z) \neq 0 \]
Qui nécessite le changement de base des variables d'états :
\[ z = \phi(x) = \vect{\phi_1(x) \\ \vdots \\ \phi_n(x)} = \vect{ h(x) \\ L_fh(x) \\ \vdots \\ L_f^{n-1}h(x)} \]
@ -134,7 +135,7 @@ Qui nécessite le changement de base des variables d'états :
\end{figure}
\subsubsection{Cas $r<n$}
Dans le cas ou $r < n$ il faut ``compléter'' le système pour le rendre commandable.
\begin{align*}
z_1 &= y\\
z_2 &= \dot{z_1} \\
@ -182,26 +183,24 @@ La dynamique restante
\end{defin}
\begin{rem}
Si $r<n$, le système comporte une dynamique des zéros. Dans le cas ou la dynamique des zéros est instable, on peux chercher à trouver une transformation pour linéariser le modèle entrée-états.
Si $r<n$, le système comporte une dynamique des zéros. Dans le cas ou la dynamique des zéros est instable, on peux chercher à trouver une transformation pour linéariser le modèle entrée-états, ce que l'on va étudier tout de suite.
\end{rem}
\subsection{Linéarisation entrée-états}
Dans le cas où l'on ne dispose pas d'une sortie $y=h(x)$, on essaye de trouver une sortie "fictive" grâce à un changement de variable.\\
On ne dispose pas d'une sortie $y=h(x)$ donc on essaye de trouver une sortie "fictive".\\
Problème : trouver le bon changement de base $z_1 = \phi_1(x)$ qui remplace $z_1=y=h(x)$ :
\paragraph{Problème} : trouver le bon changement de base $z_1 = \phi_1(x)$ qui remplace $z_1=y=h(x)$ :
\[ z = \vect{z_1 \\ \vdots \\ z_n} = \vect{\phi_1(x) \\ \vdots \\ \phi_n(x)} = \phi(x) \]
$\phi$ est un difféomorphisme, i.e. bijectif et différentiable, de même pour la réciproque.\\
\begin{thm}
Le système $\dot{x} = f(x) + g(x)u$ (1) est \emph{linéarisable entrée-états} si
Le système $\dot{x} = f(x) + g(x)u$ est \emph{linéarisable entrée-états} si
\begin{itemize}
\item il existe une région $\Omega \in \R^n$, un difféomorphisme $\phi:\Omega\rightarrow\R^n$
\item et un retour d'état $u=\alpha(x) + \beta(x)v$ tels que le nouveau vecteur
d'état est $z=\phi(x)$
\item et la nouvelle entrée est $v$ avec $\dot{z} = Az+Bv$,
\item il existe une région $\Omega \in \R^n$,où il existe un difféomorphisme $\phi:\Omega\rightarrow\R^n$
\item il existe un retour d'état $u=\alpha(x) + \beta(x)v$ tels que le nouveau vecteur d'état est $z=\phi(x)$
\item la nouvelle entrée est $v$ avec $\dot{z} = Az+Bv$,
$A$ est la matrice d'évolution $\in \R^{m \times n}$.
\end{itemize}
\end{thm}
@ -214,7 +213,7 @@ z_2 & = \phi_2(x) \\
& = \derivp[\phi_1(x)]{x}f(x) + \derivp[\phi_1(x)]{x}g(x)u \\
& = L_f\phi_1(x) + L_g\phi_1(x)u \text{ avec } L_g\phi_1(x) = 0 \\
z_3 & = L_f^2 \phi_1(x) \text{ avec } L_gL_f\phi_1(x) = 0 \\
\phi(x) & = \vect{\phi_1(x) \\ L_f\phi_1(x) \\ \vdots \\ L_f^{n-1} \phi_1(x)} \text{ avec } L_gL_f^j \phi_1(x) = 0, j = 0,\dots n-2
\phi(x) & = \vect{\phi_1(x) \\ L_f\phi_1(x) \\ \vdots \\ L_f^{n-1} \phi_1(x)} \text{ avec } L_gL_f^j \phi_1(x) = 0,\text{ et } j = 0,\dots n-2
\end{align*}
Or, $ L_gL_f^j \phi_1(x) = 0, j = 0,\dots n-2 \Leftrightarrow L_{ad_f^j g} \phi_1(x) = 0 $ car
@ -353,9 +352,10 @@ z_2 & = L_f \phi_1 = CAx \\
\subsection{Système à déphasage minimal}
\begin{defin}
\paragraph{Rappel}:
Dans le \emph{cas linéaire} le système est a déphasage minimal si les zéros sont à partie $Re<0$.
\end{defin}
\begin{defin}
@ -366,10 +366,13 @@ z_2 & = L_f \phi_1 = CAx \\
\vdots \\
\dot{\eta_{n-r}} & = q(0,\eta)
\end{array} \right. \text{ est stable} \]
Ainsi, quand le le système est à déphasage non minimal, on applique la linéarisation $e-s$.
\end{defin}
Ainsi, quand le le système est à déphasage non minimal, on applique la linéarisation $e-s$.
\subsection{Cas MIMO du bouclage linéarisant}
\paragraph{Rappel:}
Le linéarisation revient à trouver la commande qui réalise la réciproque de la non-linéarité : problème inverse. Dans le cas où le problème est non inversible d'une manière statique (i.e. algébrique), la solution est alors de réaliser une inversion dynamique, à la manière de l'observateur dans le cas linéaire.
Soit le système non-linéaire :
@ -385,7 +388,7 @@ Le degré relatif $r$ dans le cas MIMO est défini comme $r=r_1+\dots+r_p$ si $r
\end{defin}
\subsubsection{Procédure de linéarisation}
Sans perte de généralité, on pose $m=p$. Calculons les dérivées successives des sorties :
Sans perte de généralité, on pose $m=p$ (le nb de paramètre de commande est identique au nombre de sortie). Calculons les dérivées successives des sorties :
\[
\vect{ y_1^{(r_1)} \\ \vdots \\ y_p^{(r_p)}} =
\vect{ L_f^{r_1} h_1(x) \\ \vdots \\ L_f^{r_p}h_p(x) } +
@ -422,7 +425,7 @@ Le système MIMO est linéarisable si $r=\sum_{i=1}^p r_i = n$ avec $D(x)$ inver
On a un bouclage ``statique''.
\item si $D(x)$ n'edst pas inversible alors on introduit une dynamique pour la rendre inversible. Une méthode simple pour trouver cette dynamique est de continuer à dériver après apparition de la commande ($u_j,\dot{u}_j$).
\item si $D(x)$ n'est pas inversible alors on introduit une dynamique pour la rendre inversible. Une méthode simple pour trouver cette dynamique est de continuer à dériver après apparition de la commande ($u_j,\dot{u}_j$).
\end{itemize}
@ -474,7 +477,7 @@ Objectif : trouver $u$ tel que $y \to y_c$ suivant une dynamique imposée.
\begin{itemize}
\item On pose $\epsilon(t) = y_c(t) - y(t)$ : erreur de poursuite
\item Imposer la dynamique de poursuite : \[\epsilon^{(m)} + \beta_{m-1} \epsilon^{(m-1)} + \dots + \beta_1 \epsilon^{[1)} + \beta_0 \epsilon = 0 \] tels que $\beta_i,i=0\dots m$ sont choisis pour que le polynôme
\[ \lambda^n + \beta_{n-1} \lambda^{n-1} + \dots + \beta_1 \lambda + \beta_0 = 0 \] est Hurwitz, i.e. racines sont à parties réelles strictement négatives.
\[ \lambda^n + \beta_{n-1} \lambda^{n-1} + \dots + \beta_1 \lambda + \beta_0 = 0 \] soit un polynone d'Hurwitz\footnote{les racines sont à parties réelles strictement négatives}.
Pour $n=m$ on a
\[ y^{(m)} (t) = y_c^{(m)}(t) + \sum
_{i=1}^m \beta_{i-1}(y_c^{(i-1)}(t) - y^{(i-1)}(t)) \]
@ -492,7 +495,8 @@ La poursuite asymptotique revient à trouver $u$ tel que
Dans le cas où le modèle est sous forme normale (forme obtenue pour le bouclage linéarisant) :
\begin{align*}
\dot{z_1} & = z_2, z_1 = y \\
y &= z_1\\
\dot{z_1} & = z_2 \\
\vdots \\
\dot{z_{r-1}} & = z_r \\
\dot{z_r} & = b(z) + a(z)u \text{ avec } a(z) \neq 0 \\
@ -538,7 +542,8 @@ Même démarche pour les degrés supérieurs de la poursuite asymptotique.
\label{fig:label}
\end{figure}
La difficulté de la poursuite asymptotique est la résolution de l'équation dynamique NL
\[c(z_1 \dots z_n , u \dots u^{(k)} ) y_c^{(n)} - \sum_{i=1}^m \beta_{i-1} (y_c^{(i-1)} - z_i) \]
\[c(z_1 \dots z_n , u \dots u^{(k)} ) y_c^{(n)} - \sum_{i=1}^m \beta_{i-1} (y_c^{(i-1)} - z_i) = 0 \]
\subsection{Système plats}
Dans le cas des systèmes plats, la solution est obtenue via les sorties plates.

View file

@ -27,7 +27,7 @@ Ainsi, dans le cas d'un point d'équilibre stable, $x_2$ converge plus rapidemen
\]
\end{prop}
\begin{rem}
La variété\footnote{Une variété est un objet mathématique, courbes :variété de dimension 1, surface :variété de dimension 3} $\Sigma_\epsilon$ dégènre en $\Sigma_0$ pour $\epsilon \to 0$.
La variété\footnote{une courbe est une variété de dimension 1,une surface une variété de dimension} $\Sigma_\epsilon$ dégènre en $\Sigma_0$ pour $\epsilon \to 0$.
\end{rem}
\section{Détermination du voisinage}
@ -80,7 +80,7 @@ On peut améliorer l'approximation de la variété $\Sigma_{0,\epsilon}$ via un
\[ i = \frac{u-k\omega}{R} + \frac{L}{R}(\dot{u}-\frac{k}{J}(k(\frac{u-k\omega}{R})-\alpha\omega-C_r)) + \mathcal{O}(L^2) \]
Par exemple, si on veut avoir $i_0=0$, alors $\Sigma_0 = k\omega$. Pour garder $i_0=0$ pour $\Sigma_{0,\epsilon}$, on doit imposer une variation lente de $u$ (lente par rapport à $L\deriv[]{t}$
Par exemple, si on veut avoir $i_0=0$, alors $\Sigma_0 = k\omega$. Pour garder $i_0=0$ pour $\Sigma_{0,\epsilon}$, on doit imposer une variation lente de $u$ (lente par rapport à $L\deriv[]{t}$ ).
\[ \dot{u} = -\frac{k}{J}(\alpha\omega+C_r) - \mathcal{O}(L^2) \]
\end{exemple}
@ -91,14 +91,24 @@ $C_r = -\frac{\dot{u}J}{k}$ est utilisée pour estimer $C_r$ en modulant $\dot{u
\subsection{Hiérarchisation par commande à grand gain}
\begin{defin}
Soit le système (1), où la commande n'intervient que sur $x_2$ linéairement :
Un système est de \emph{forme triangulaire}. si il est de la forme:
\[
\begin{cases}
\dot{x_1} & = f_1(x_1) + x_2 \\
\dot{x_2} & = f_2(x_1,x_2) + x_3 \\
& \vdots \\
\dot{x_n} & = f_n(x_1,\dots x_n) + u
\end{cases}
\]
\end{defin}
Soit le système (1) triangulaire, où la commande n'intervient que sur $x_2$ linéairement :
\[
\begin{cases}
\dot{x_1} & = f_3(x_1,x_2) \\
\dot{x_1} & = f_1(x_1,x_2) \\
\dot{x_2} & = f_2(x_1,x_2) + u \end{cases} , \quad x_1 \in \R^{n_1}, x_2 \in \R^{n_2}, u \in\R^{n_2}
\]
Ce système est de \emph{forme triangulaire}.
\end{defin}
Soit $x_2^*$ la trajectoire consigne à imposer à $x_2$. Avec comme hypothèse $f_2(x_1,x_2)$ bornée, nous appliquons la commande à grand gain
\[ u = -\frac{K}{\epsilon}(x_2-x_2^*)\]
$\epsilon<< 1$ et $K$ matrice diagonale définie positive.
@ -144,11 +154,11 @@ Soit un système sous forme triangulaire (apparition successive des différentes
\end{align*}
On veut triuver $u$ pour imposer une poursuite asymptotique de $x_1$ vers $x_1^*$, pour cela on utilise une commande réalisée via la condition de Lyapunov. La méthode du backstepping synthétise la commande $u$ en plusieurs étapes avec une séparation dynamique pour simplifier le choix de $V(x)$.
On veut trouver $u$ pour imposer une poursuite asymptotique de $x_1$ vers $x_1^*$, pour cela on utilise une commande réalisée via la condition de Lyapunov. La méthode du backstepping synthétise la commande $u$ en plusieurs étapes avec une séparation dynamique pour simplifier le choix de $V(x)$.
\paragraph{Procédure de synthèse}
\paragraph{Étape 1} Afin d'imposer la consigne $x_1^*$, on utilise la fonction de Lyapunov
\paragraph{Étape 1} Afin d'imposer la consigne $x_1^*$, on utilise la fonction de Lyapunov, $x_1^*$ est un point d'équilibre à atteindre
\[ V_1(x_1) = \frac{1}{2}(x_1 - x_1^*)^2 \]
Pour assurer la stabilité, il faut que $\dot{V_1}(x_1)$ soit définie négative.
\begin{align*}
@ -156,7 +166,8 @@ Pour assurer la stabilité, il faut que $\dot{V_1}(x_1)$ soit définie négative
& = (x_1 - x_1^*)(f_1(x_1) + x_2 - \dot{x_1^*})
\intertext{On cherche donc $x_2^*$ pour que}
\dot{V_1}(x_1) & = \alpha_1(x_1-x_1^*)^2 \quad \text{ avec } \alpha_1 < 0 \\
x_2^* & = \alpha_1(x_1-x_2^*) - f_1(x_1) + \dot{x_1^*}
\intertext{Soit:}
x_2^* & = \alpha_1(x_1-x_2^*) - f_1(x_1) + \dot{x_1^*}
\end{align*}
$x_2^*$ est une ``consigne fictive''. On doit faire tendre $x_2$ vers $x_2^*$ asymptotiquement et plus rapidement que $x_1$ vers $x_1^*$.
@ -192,140 +203,6 @@ Cette méthode est généralisable à des systèmes sans forme :
sur $\mathcal{D} = \{x_1,\dots,x_n \text{ tq } g_1 \neq 0,\dots,g_n\neq 0 \}$
\end{rem}
Mais les méthodes sont alors peu robuste.
\section{Rejet de perturbation}
On suppose que le modèle st soumis à des perturbations.
\subsection{Cas SISO}
\[ (1) \begin{cases} \dot{x} & = f(x) + g(x)u + p(x) w \\ y & = h(x) \end{cases} \]
Même principe que pour la linéarisation par bouclage, on dérive la sortie par rapport au temps :
\[ \dot{y} = \derivp[h(x)]{x} \dot{x} = L_fh(x) + L_gh(x) u + L_ph(x) w \]
On réalise le rejet de perturbations sur la relation entre le degré relatif associé à $u$ et $\sigma$ degré relatif associé à $w$.
\paragraph{Cas 1} $L_ph(x) \neq 0$\\
Si $L_gh(x) \neq 0$ et la perturbation $w$ est mesurable (rarement), alors le rejet de la perturbation est obtenu par
\[ u = (L_gh(x))^{-1}(v-L_fh(x) - L_ph(x)w) \quad \text{avec trivialement } v = \dot{y}\]
Si la perturbation n'est pas mesurable, on réalise une linéarisation dynamique avec $x_{n+1} = u$ et $x_{n+2} = w$ mais dans ce cas la perturbation $w$ doit être canonique, i.e. $\exists \alpha \in \N \text{ tq } w^{(\alpha)} = 0$.
Ainsi, on dérive la sortie jusqu'à disparition de la perturbation puis on linéarise.\\
\noindent Si $L_gh(x) = 0$, on calcule les dérivées d'ordres supérieurs de la sortie jusqu'à apparition de la commande (linéarisation dynamique).
\paragraph{Cas 2} $L_ph(x) = 0$.\\
Si $L_gh(x)\neq0$, la perturbation est rejetée pour
\[ u = (L_gh(x))^{-1}(v-L_fh(x)) \]
Su $L_gh(x) = 0$, on dérive une deuxième fois la sortie.
\begin{prop}
Soient $r$ le degré relatif correspondant à $L_gL_f^{r-1}h(x) \neq 0$ et $\sigma$ le plus petit entier pour lequel $L_pL_f^{\sigma-1}h(x) \neq0$, alors :
\begin{itemize}
\item si $r<\sigma$ la perturbation $w$ est rejetée par la commande linéarisante
\item si $r=\sigma$ la perturbation $w$ est rejetée si elle est mesurable
\item si $r>\sigma$ le rejet de $w$ ne peut se faire que par une linéarisation dynamique : observateur NL si $w$ n'est pas canonique
\end{itemize}
\end{prop}
\subsection{Cas MIMO}
\[ \begin{cases} \dot{x} & = f(x) + \sum_{i=1}^m g_i(x)u_i + p(x) w \\ y & = h(x) \end{cases}, \quad x \in \R^n, u \in \R^m, y \in \R^d \]
Même principe que le cas SISO mais une linérisation MIMO où chaque nouvelle entrée $v_i$, permet de rejeter les perturbations sur $y_i$.
\begin{rem}
L'incertitude sur le modèle peut être interprétée comme une perturbation. En effet, le modèle (1) s'écrit
\[ \begin{cases} f(x) & = f(x) + \Delta f(x) + g(x) u + \Delta g(x) u \\ y & = h(x) \end{cases} \]
Suivant l'analyse sur le bouclage linéarisant, le rejet d'incertitude est obtenu si
\begin{align*}
L_{\Delta f} L_f^i h = 0 & 0 \leq i \leq r-2 \\
L_{\Delta g} L_f^i h = 0 & 0 \leq i \leq r-1
\end{align*}
Ce résultat ne peut être vérifié qu'a posteriori car $\Delta f$ et $\Delta g$ sont inconnues.
\end{rem}
\section{Robustesse en NL - Commande par mode glissant}
%%\imgt{8/1}
Un terme $u_r$ est ajouté à la commande de départ $u_{eq}$ ...
\begin{exemple}[Onduleur de tension commandé en courant]
Sans avoir à modéliser la charge, on veut imposer la forme de courant :
%%\imgt{8/2}
\end{exemple}
\subsection{Éléments de synthèse de la commande}
\begin{enumerate}
\item Synthétiser une commande sans prise en compte de l'incertitude ni de la perturbation : surface de glissement (poursuite asymptotique)
\item Commande gardant les états sur la surface de glissement ayant pour hypothèse l'incertitude ou la perturbation bornées : variation de la structure du système par commutation
\end{enumerate}
\begin{defin}
La \emph{Surface de glissement ou commutation}
$S(x,t)$ est la surface autour (dans un voisinage) de laquelle le système évolue avec une dynamique imposée par $S$.
\end{defin}
\begin{defin}
Un système est à \emph{structure variable} si son entrée commute entre deux valeurs suivant une logique bien spécifique $\sigma(x)$
%%\img{0.5}{8/3}
\end{defin}
\begin{defin}
\emph{La Commande par mode glissant} est une commande discontinue ayant pour objectif de faire converger le système en $S$. On utilise la fonction de Lyapunov \[ V(x,t) = \frac{1}{2}S^2(x,t) \]
Pour avoir convergence vers la surface de glissement, il faut avoir
\[ \dot{V}(x,t) = S(x,t) \dot{X}(x,t) \leq 0 \]
$\sigma(x)$ est la logique qui impose $S\dot{S} \leq 0$
\end{defin}
\begin{rem}
$S\dot{S}$ est la condition d'existence d'un régime glissant sur la surface $S$.
\end{rem}
\subsection{Application de la commande par mode glissant}
La poursuite asymptotique est une méthode de détermination de $S$.
Soit $\epsilon(t) = y_c(t) - y(t)$$y_c$ est la consigne et $y$ la sortie.
On pose $S = \epsilon^{(m)}(t) + \beta_{m-1}\epsilon^{(m-1)} + \dots + \beta_1 \dot{\epsilon} + \beta_0 \epsilon$$\beta_i, i =0,\dots,m-1$ sont choisis pour imposer la dynamique de convergence.
\begin{rem}
Par exemple, on peut choisir $S = (\frac{d}{dt} + \lambda)^m \epsilon, \lambda >0$
Choix de la commande (bouclage linéarisant)
\end{rem}
On pose $m=r-1$$r$ est le degré relatif et on a
\begin{align*}
u & = \frac{1}{L_gL_f^{r-1}h(x)} (-L_f^rh(x) + y_c^{(r)} + \sum_{i=1}^r \beta_{i-2} \epsilon^{(i-1)} + \alpha K sgn(S) ) \\
u & = \frac{1}{L_gL_f^{r-1}h(x)} (-L_f^rh(x) + y_c^{(r)} + \dot{S} + \alpha K sgn(S) )
\end{align*}
Ainsi en utilisant le changement de variable $z_i = L_f^{i-1}h(x) = \phi_i(x), i = 1,\dots,r$, la commande linéarisante avec poursuite asymptotique et robuste s'écrit :
\[ u = \frac{1}{b(z,\eta)} (-a(z,\eta) + y_c^{(r)} + \dot{S} + \alpha K sgn(S)) \]
avec pour modèle normal :
\begin{align*}
\dot{z_1} & = z_2 \\
& \vdots \\
\dot{z_{r-1}} & = z_r \\
\dot{z_r} & = y_c^{(r)} + \dot{S} + \alpha K sgn(S) + \Delta a (z,\eta) \\
\dot{\eta} & = q(z,\eta) + \Delta q(z,\eta) + \Delta p(z,\eta)u \\
\text{ avec } & \Delta a (z,\eta) = L_{\Delta f} L_f^{r-1} h(x), \Delta q(z,\eta) = L_{\Delta f} \eta, \Delta p(z,\eta) = L_{\Delta f} \eta
\end{align*}
On suppose que $|\Delta a (z,\eta)| < K < \infty$ donc pour avoir $\dot{z_r} = y_c^{(r)}$, on doit poser $\dot{S} = - \alpha K sgn(S) - \Delta a(z,\eta)$.
Cas $S>0 \Rightarrow \dot{S} < -K(\alpha-1) < 0 \si \alpha > 1$
Cas $S<0 \Rightarrow \dot{S} > K(\alpha-1) > 0 \si \alpha < 1$
Ainsi on vérifie la condition d'existence du régime glissant, alors quand la trajectoire atteint $S$, alors $y \to y_c$ suivant la dynamique imposée par $S$.
\end{document}
%%% Local Variables: