424 explosion cérébrale du 28/03
This commit is contained in:
parent
347199d1e9
commit
dd9e8ef1ed
1 changed files with 54 additions and 30 deletions
|
@ -7,7 +7,7 @@ Dans la suite du chapitre on étudiera le modèle suivant : Affine en la command
|
|||
\dot{x} & = f(x) + g(x) u\\
|
||||
y & = h(x)
|
||||
\end{cases}
|
||||
\]
|
||||
\]\nopagebreak
|
||||
\section{Commande par bouclage linéarisant}
|
||||
\begin{figure}[H]
|
||||
\centering
|
||||
|
@ -54,6 +54,7 @@ On cherche $r$ par le calcul des dérivées successives de $y=h(x)$ :
|
|||
\intertext{Si $L_gL_fh(x) \neq 0$, alors $r=2$. Sinon on continue...}
|
||||
y^{(r)} & = L_f^rh(x) + L_gL_f^{r-1}h(x)u
|
||||
\end{align*}
|
||||
|
||||
\begin{rem}
|
||||
On a $1 \leq r \leq n$ car la procédure utilise la base canonique ($x_1=y,x_2=\dot{y}$) : la commande doit apparaître au maximum à la $n$-ième dérivée.
|
||||
\end{rem}
|
||||
|
@ -246,15 +247,15 @@ x_2 \neq 0
|
|||
$\Delta(x)$ est une distribution de champs de vecteurs.
|
||||
\end{exemple}
|
||||
|
||||
\begin{defin}[Involution]
|
||||
La distribution $\Delta$ est involutive ssi
|
||||
\[\forall f,g \in \Delta, \quad [f,g] \in \Delta, \quad \text{Homogénéité est mère de vertu} \]
|
||||
\begin{defin}
|
||||
La distribution $\Delta$ est \emph{involutive} ssi
|
||||
\[\forall f,g \in \Delta, \quad [f,g] \in \Delta \]
|
||||
\end{defin}
|
||||
|
||||
\begin{rem}
|
||||
$\Delta(x) = vect \{ f_1, \dots, f_p \}$ est une distribution involutive ssi
|
||||
\begin{prop}
|
||||
$\Delta(x) = \vect{f_1& \dots & f_p}$ est une distribution involutive ssi
|
||||
\[ \exists \alpha_{ij_k} : \R^n \mapsto \R \text{ tq } [f_i,f_j] = \sum_{k=1}^p \alpha_{ij_k}(x) f_k, \quad i = 1,\dots p, j = 1,\dots p\]
|
||||
\end{rem}
|
||||
\end{prop}
|
||||
|
||||
\begin{exemple}
|
||||
\[ x_2 \neq 0 \Rightarrow \Delta(x) = vect\left\lbrace \vect{x_1 \\ x_2 \\ 2}, \vect{1 \\ 1 \\ 0} \right\rbrace\]
|
||||
|
@ -281,14 +282,17 @@ $\Delta$ est une distribution involutive pour $x_2 \neq 0$
|
|||
|
||||
\newcommand{\lesys}{$\dot{x}=f(x)+g(x)u, x\in\R^n, u\in\R$}
|
||||
|
||||
\begin{thm}[Théorème d'existence de $\phi_1$]
|
||||
Soit le système \lesys.
|
||||
\begin{thm}[Theoreme d'existence]
|
||||
Soit le système $\Sigma$. Il existe un changement de base $z=\phi(x)$\\[1.5em]
|
||||
|
||||
Il existe un changement de base $z=\phi(x)$ linéarisant sur $\Omega$ tel que $\phi^T(x) = [\phi_1(x), L_f\phi_1(x) \dots L_f^{n-1} \phi_1(x) ]$ ssi :
|
||||
linéarisant sur $\Omega$ tel que
|
||||
\[\phi^T(x) = [\phi_1(x), L_f\phi_1(x) \dots L_f^{n-1} \phi_1(x) ]\]
|
||||
ssi :
|
||||
\begin{itemize}
|
||||
\item $dim(g,ad_f g, \dots ad_f^{n-1} g) = n$ (Commandabilité Kalman)
|
||||
\item la distribution engendrée par $\{g, ad_f g, \dots ad_f^{n-1}g\}$ est involutive, $\forall x \in \Omega$ \footnote{Homogénéité est mère de vertu}
|
||||
\item la distribution engendrée par $\{g, ad_f g, \dots ad_f^{n-1}g\}$ est involutive, $\forall x \in \Omega$.
|
||||
\end{itemize}
|
||||
%
|
||||
\end{thm}
|
||||
|
||||
Ainsi, la procédure de linéarisation entrée-états est réalisée via les étapes suivantes :
|
||||
|
@ -349,24 +353,24 @@ z_2 & = L_f \phi_1 = CAx \\
|
|||
|
||||
|
||||
\subsection{Système à déphasage minimal}
|
||||
\begin{defin}[Cas linéaire]
|
||||
Si les zéros sont à partie $Re<0$
|
||||
\begin{defin}
|
||||
Dans le \emph{cas linéaire} le système est a déphasage minimal si les zéros sont à partie $Re<0$.
|
||||
\end{defin}
|
||||
|
||||
|
||||
\begin{defin}[Cas non linéaire]
|
||||
dynamique des zéros stables, i.e. à l'origine on a :
|
||||
\begin{defin}
|
||||
Dans le \emph{cas non linéaire} le sytème est à déphasage minimal si dynamique des zéros stables, i.e. à l'origine on a :
|
||||
\[\left\lbrace
|
||||
\begin{array}{cc}
|
||||
\dot{\eta_1} & = q(0,\eta) \\
|
||||
\vdots \\
|
||||
\dot{\eta_{n-r}} & = q(0,\eta)
|
||||
\end{array} \right. \text{ est stable} \]
|
||||
Ainsi, le le système est à déphasage non minimal, on applique la linéarisation $e-s$.
|
||||
Ainsi, quand le le système est à déphasage non minimal, on applique la linéarisation $e-s$.
|
||||
\end{defin}
|
||||
|
||||
\subsection{Cas MIMO du bouclage linéarisant}
|
||||
Le linéarisation revient à trouver la commande qui réalise la réciproque de la non-linéarité : problème inverse. Dans le cas où le problème est non inversible d'une manière statique (i.e. algébrique), la solution est de réaliser une inversion dynamique (ex : l'observateur dans le cas linéaire).\\
|
||||
Le linéarisation revient à trouver la commande qui réalise la réciproque de la non-linéarité : problème inverse. Dans le cas où le problème est non inversible d'une manière statique (i.e. algébrique), la solution est alors de réaliser une inversion dynamique, à la manière de l'observateur dans le cas linéaire.
|
||||
|
||||
Soit le système non-linéaire :
|
||||
\begin{align*}
|
||||
|
@ -374,7 +378,7 @@ Soit le système non-linéaire :
|
|||
y & = \vect{k_1(x) \\ \vdots \\ k_p(x)} \text{ avec } x\in\R^n,y \in \R^p \text{ et } u=\vect{u_1 \\ \vdots \\ u_m} \in \R^m
|
||||
\end{align*}
|
||||
|
||||
\begin{defin}[Degré relatif en MIMO]
|
||||
\begin{defin}
|
||||
Le degré relatif $r$ dans le cas MIMO est défini comme $r=r_1+\dots+r_p$ si $r_i$ est le degré relatif associé à la sortie $y_i$ tel que :
|
||||
\[ \forall j=1\dots m, L_{g_j}L_f^k h_i(x) = 0, \forall k < r_i-1\]
|
||||
\[ \exists j =1\dots m, L_{g_j}L_f^{r_i-1} h_i(x) \neq 0\]
|
||||
|
@ -395,15 +399,34 @@ Sans perte de généralité, on pose $m=p$. Calculons les dérivées successives
|
|||
On remarquera l'intérêt de poser $m=p$.
|
||||
|
||||
On note $D(x)$ la matrice $\R^{p\times m}$ (dite de découplage).
|
||||
\[
|
||||
D(x) =
|
||||
\begin{pmatrix}
|
||||
L_{g_1}L_f^{r_1-1}h_1 & \dots & L_{g_m}L_f^{r_1 - 1} h_1 \\
|
||||
\vdots & \ddots & \vdots \\
|
||||
L_{g_1}L_f^{r_p-1} & \dots & L_{g_m}L_f^{r_p-1} h_p
|
||||
\end{pmatrix}
|
||||
\]
|
||||
|
||||
Si $D(x)$ est inversible, alors la commande linéarisante est :
|
||||
\[ u(x) = D(x)^{-1}( \vect{v_1 \\ \vdots \\ v_m} - \vect{L_f^{r-1} h_1(x) \\ \vdots \\ L_f^{r_p}h_p(x)}) \]
|
||||
|
||||
|
||||
\begin{prop}
|
||||
Le système MIMO est linéarisable si $r=\sum_{i=1}^p r_i = n$ avec $D(x)$ inversible.
|
||||
\end{prop}
|
||||
|
||||
|
||||
|
||||
\begin{itemize}
|
||||
\item Si $D(x)$ est inversible, alors la commande linéarisante est :
|
||||
\[ u(x) = D(x)^{-1}( \vect{v_1 \\ \vdots \\ v_m} - \vect{L_f^{r-1} h_1(x) \\ \vdots \\ L_f^{r_p}h_p(x)}) \]
|
||||
On a un bouclage ``statique''.
|
||||
|
||||
|
||||
\item si $D(x)$ n'edst pas inversible alors on introduit une dynamique pour la rendre inversible. Une méthode simple pour trouver cette dynamique est de continuer à dériver après apparition de la commande ($u_j,\dot{u}_j$).
|
||||
\end{itemize}
|
||||
|
||||
|
||||
|
||||
Dans le cas où $r<n$, alors le système MIMO est partiellement linéarisable. Ainsi, $\eta$ est le vecteur d'état des $n-r$ équations non linéaires restantes.
|
||||
\[ \dot{\eta} = P(z,\eta) + Q(z,\eta) u, \text{ avec } P_k(z,\eta) = L_f \eta_k \text{ et } Q_{k,j}(z,\eta) = L_{g_j}\eta_k, k = 1 \dots n-r, j = 1 \dots m \]
|
||||
|
||||
|
@ -481,21 +504,24 @@ Dans le cas où le modèle est sous forme normale (forme obtenue pour le bouclag
|
|||
Si $m=r$ alors \[ u = \frac{1}{a(z)} (-b(z)+y_c^{(r)} + \sum_{i=1}^r \beta_{i-1} \epsilon^{(i-1)} \]
|
||||
$y_c^{(r)}$ bouclage linéarisant statique
|
||||
|
||||
Si$m=r+1$ alors
|
||||
Si $m=r+1$ alors
|
||||
\[ \dot{u} = \frac{1}{a(z)} (-\dot{b}(z) - \dot{a}(z)u + y_c^{(m)} + \sum_{i=1}^m \beta_{i-1} \epsilon^{(i-1)}) \]
|
||||
$\dot{a}(z)u$ bouclage linéarisant dynamique
|
||||
Même démarche pour les degrés supérieurs de la poursuite asymptotique.
|
||||
\end{itemize}
|
||||
|
||||
%\img{0.5}{6/1}
|
||||
|
||||
\begin{figure}[ht]
|
||||
\centering
|
||||
\includegraphics[width=0.9\textwidth]{6/1.png}
|
||||
\caption{ }
|
||||
\label{fig:label}
|
||||
\end{figure}
|
||||
La difficulté de la poursuite asymptotique est la résolution de l'équation dynamique NL
|
||||
\[c(z_1 \dots z_n , u \dots u^{(k)} ) y_c^{(n)} - \sum_{i=1}^m \beta_{i-1} (y_c^{(i-1)} - z_i) \]
|
||||
|
||||
Dans le cas des systèmes plats, la solution est obtenue via les sorties plates.
|
||||
|
||||
\begin{defin}[Platitude]
|
||||
Un système est dit plat s'il a des sorties plates. Tous les états et entrées de commande du système sont exprimés en fonction des sorties plates et d'un nombre fini de leurs dérivées.\\
|
||||
\begin{defin}
|
||||
Un système est dit \emph{plat} s'il a des sorties plates. Tous les états et entrées de commande du système sont exprimés en fonction des sorties plates et d'un nombre fini de leurs dérivées.\\
|
||||
|
||||
\noindent Cas SISO : $\dot{x} = f(x,u)$ est plat si \[\exists y \in \R \text{ tq } x = \phi(y,y^{(1)},\dots,y^{(\beta)}) \text{ et } u=\psi(y,y^{(1)},\dots,y^{(\delta)}), \beta,\delta \in \N\]
|
||||
|
||||
|
@ -519,8 +545,7 @@ u_1 & = \frac{\dot{x_3}}{y_1} = \frac{(\ddot{y_2}-\dot{y_2})\dot{y_2}-\ddot{y_1}
|
|||
|
||||
Un autre intérêt de la platitude est la planification simple de trajectoire.
|
||||
|
||||
\begin{thm}
|
||||
[Principe de la planification de trajectoire]
|
||||
\begin{thm}[Principe de la planification de trajectoire]
|
||||
La planification peut comporter des contraintes sur la commande (énergie, saturation, ...) et sur les états (obstacles, limitation de vitesse, d'accélération...)
|
||||
Pour les systèmes plats, la planification est réalisée sur les sorties plates $y\in\R^p$ et la commande est déduite par $u=\psi(y_1,\dots,y_p^{(\delta_p)})$
|
||||
\end{thm}
|
||||
|
@ -539,14 +564,13 @@ Le système est plat où $q\in\R^n$ sont les sorties plates.\\
|
|||
|
||||
La planification de trajectoire est réalisée sur les $q$, puis $u=K^{-1}(q,\dot{q})(M(q)\dot{q} + B(q,\dot{q}))$\\
|
||||
|
||||
\newpage
|
||||
|
||||
Commande en cassecade \footnote{Momo m'a tuer} :
|
||||
%\imgt{7/1}
|
||||
|
||||
\[ C_0(p) = K >>1, \quad H_0(p) = \frac{H_1(p)}{1+KH_1(p)} \approx \frac{1}{K} \]
|
||||
\end{exemple}
|
||||
|
||||
\newpage
|
||||
\section{Commandes hiérarchisées}
|
||||
|
||||
\subsection{Échelles de temps}
|
||||
|
|
Loading…
Reference in a new issue