En pratique, soit $V\in\mathbb{K}^{n\times}$ inversible, tel que $V^{-1}AV = J$, $J\in\mathbb{K}^{n \times n}$ matrice de Jordan ou bien $J =\Lambda=\text{diag}(\lambda_1...\lambda_n), \lambda_i$ valeurs propres de A
On étudie la stabilité d'un système dynamique au sens de \textsc{Lyapunov}.
\begin{defin}
Un état d'équilibre du système autonome est un vecteur d'état, noté $x_e\in\K^n$ tel que
\[
A x_e =0
\]
\end{defin}
\begin{defin}
Un point d'équilibre $x_e,u_e$ est :
\begin{description}
\item[ - simplement stable] ~\\
si pour tout voisinage $V_1$ de $x_e$, il existe un voisinage $V_2$ tel que $\forall x_0\in V_2, \forall t, x(t)\in V_1$
\item[- asymptotiquement stable]~\\
Si il existe un voisinage $V_1$ de $x_e$ tel que $\forall x_0\in V_1$, $x(t)\xrightarrow[t\to\infty]{} x_e$
\item[- globalement asymptotiquement stable] ~\\
si $\forall x_0$, $x(t)\xrightarrow[t\to\infty]{} x_e$.
\item[- instable] sinon
\end{description}
\end{defin}
\subsection{Caractérisation des différents type de stabilité}
Soit $A \in\K^{n\times n}$ une matrice d'évolution d'un système $(\Sigma)$, de valeurs propres $\lambda_1, ..., \lambda_r$ deux à deux disctintes et de multiplicité algébrique (ordre des racines du polynome annulateur, taille des sous-espace propres) respectives $m_1, ... ,m_r $. on note $\nu_1 ,...,\nu_r$ les multiplicité géométrique (taille des sous-espaces caractéristiques \footnote{$\forall k\ge\nu_i , (A-\lambda_iI_n)^k =0$})
\begin{thm}[Stabilité analogique]
La stabilité de l'origine (apres translation d'état) est donnée par :
\begin{itemize}
\item si $\exists i $ tq $\Re(\lambda_i)>0$ alors 0 est \textbf{instable}
\item sinon:
\begin{itemize}
\item si $\forall i , \Re(\lambda_i)<0$ alors 0 est \textbf{globalement asymptotiquement stable}
\item si $\exists j, \Re(\lambda_j)=0$ et $\nu_j>1$ alors 0 est \textbf{instable}
\item si $\forall j, \Re(\lambda_j)=0$ et $\nu_j=1$ alors 0 est \textbf{stable sans être asymptotiquement stable}
\end{itemize}
\end{itemize}
\end{thm}
\begin{thm}[Stabilité numérique]
La stabilité de l'origine (apres translation d'état) est donnée par :
\begin{itemize}
\item si $\exists i $ tq $|\lambda_i| > 1$ alors 0 est \textbf{instable}
\item sinon:
\begin{itemize}
\item si $\forall i , |\lambda_i|<1$ alors 0 est \textbf{globalement asymptotiquement stable}
\item si $\exists j, |\lambda_j| =1$ et $\nu_j>1$ alors 0 est \textbf{instable}
\item si $\forall j, |\lambda_j| =1$ et $\nu_j=1$ alors 0 est \textbf{stable sans être asymptotiquement stable}
Problème : existe-t-il une commande $u(t)$ permettant de passer d'un point de fonctionnement à $t=t_1$ à un autre à $t=t_2$ ?
\subsection{Commandabilité}
\begin{defin}
\begin{description}
\item[Cas analogique]
Le système $(\Sigma)$ est dit commandable si \[\forall x(t=t_0)=x_0\in\K^N \text{ et }\forall x_f=x(t=t_f)\in\K^n\] il existe une commande $u(t)$ continue (par morceaux) qui amène l'état $x(t)$ de l'état $x_0$ à $t=t_0$ vers $x_f$ à $t=t_f$.
\item[Cas discret]
Le système $(\Sigma_d)$ est commandable si \[\forall x_d \in\K^n \text{ et }\forall x_f \in\K^n\] il existe une séquence d'échantillons de commande $[u_0,u_1,\dots u_k]$ qui amène le système $\Sigma_d$ de l'état de $x_d$ pour $k=0$ à $x_f$ pour $k=n$.
\end{description}
\end{defin}
\begin{defin}
On appelle \textbf{matrice de commandabilité} (dite de Kalman), la matrice notée (obtenue par concaténation)
\[\mathcal{C}(A,B)=[B \quad AB \quad A^2B \dots A^{n-1}B]\in\K^{n \times n}\]
\end{defin}
\begin{thm} Cas analogique ou discret : \\
\textbf{Le système $(\Sigma)$ est commandable} si et seulement si (matrice de rang plein)
\[ rang(\mathcal{C}(A,B))= n \]
\textbf{Le système $(\Sigma_d)$ est commandable} si et seulement si
\[ rang( C(A_d,B_d))= n \]
\end{thm}
On dit alors que la paire $A,B$ est commandable.
\begin{prop}[Corollaire spécifique aux systèmes monovariables]
Le systèmes $(S)$ ou $(S_d)$ est commandable si et seulement si
\[ det (\mathcal{C}(A,B))\neq0\quad(\text{ ou } det (C(A_d,B_d))\neq0)\]
En effet, d'après le théorème d'Hamilton-Cayley, la matrice $A$ est racine de son polynôme caractéristique : $P_A(A)=0$ donc $A^n =-\sum_{k=0}^{n-1}a_k A^k$.
\[x_f-A_d^nx_0=\underbrace{[B \quad AB \dots\quad A^{n-1}b]}_{\mathcal{C}(A,B)}\vect{u_{n-1}\\\vdots\\ u_0}\]
Si $\mathcal{C}(A,B)$ inversible i.e. système commandable, alors on en déduit la séquence de commande permettant de passe de $x_d$ pour $k=0$ à $x_f$ pour $k=n$:
Or si $y\in\R^n \setminus\{0\}$ il existe $x_1\in\R^n$ tel que $y^Tx_1\neq0$ par exemple $x_1=y$ donc $\forall u, x(t_1)\neq x_1$$(\Sigma)$ non commandable.
\end{enumerate}
\end{proof}
\begin{prop}[Gramien asymptotique]
$W_c(0,\infty)$ solution de l'équation de Lyapumov $AP + PA^T+BB^T=0$
\end{prop}
\paragraph{Remarque}
Soit $A \in\K^{n\times n}$ et $t\in\R$ on montre avec le théorème de Cayley-Hamilton que :
\[
e^{tA} = \sum_{j=0}^{n-1}\phi_j(t)A^j \text{ avec }\phi_j(t) \text{ fonction analytique de $\R$, ie DSE.}
Soit $A\in\K^{3\times3}$ diagonalisable. Calculer $e^{tA}$ et en déduire $\phi_0,\phi_1,\phi_2$ tel que \[e^{tA}=\sum_{j=0}^{2}\phi_jA^j\]
\end{it}
\subsection{Observabilité}
\begin{defin}
Le système $(\Sigma_d)$ est observable si $\forall x_0\in\R^n$ à
$t=t_0$, il est possible de déterminer le vecteur d'état ($x(t)$ ou $x_d$, uniquement en se servant de l'entrée $u(t)$ ou $u_k$ et de la sortie $y(t)$ ou $y_k$.
\end{defin}
\begin{defin}
On appelle matrice d'observabilité (dite de Kalman), la matrice
\[\mathcal{O}(A,C)=\left[\begin{array}{c}
C \\
CA \\
\vdots\\
CA^{n-1}
\end{array}\right]
\in\K^{n\times n}
\]
\end{defin}
\begin{thm}[Critère d'Observabilité de Kallman]
Le systèmes $(\Sigma)$ ou $(\Sigma_d)$ est observalble si et seulement si
\[ rang(\mathcal{O}(A,C))= n \quad\text{ ou }rang(\mathcal{O}(A_d,C_d))= n \]
\end{thm}
\begin{prop}[Corollaire dans le cas SISO]
\[rang(\mathcal{O}(A,C))= n \Leftrightarrow det(\mathcal{O}(A,C))\neq0\]
\end{prop}
\begin{proof}
Dans le cas discret, \[y_k = C_dA_d^kx_0+\sum_{j=0}^{k-1}C_dA_d^{k-1-j}B_du_j+D_du_k\]
\[\left[\begin{array}{c} C \\ CA \\\vdots\\CA^{k-1}\\\end{array}\right] x_d =\left[\begin{array}{c} y_0\\ y_1\\\vdots\\ y_k \end{array}\right]- M \left[\begin{array}{c} u_0\\ u_1\\\vdots\\ u_{k-1}\end{array}\right]\]
avec \[ M =\left[
\begin{array}{ccccc}
0 \\
CB &\ddots\\
CAB &\ddots&\ddots\\
\vdots&\ddots&\ddots&\ddots\\
CA^{k-2}&\hdots& CAB & CB & 0
\end{array}
\right]
\]
$k\geq n-1$
$x_d$ s'obtient si et seulement si $rang(\mathcal{O}(C,A))=n$
\end{proof}
\begin{prop}
Les propriétés de commandabilité et d'observabilité sont invariantes par changement de variable.
\end{prop}
\begin{proof}
Soit $(\Sigma)=
\begin{cases}
\dot{x} =Ax+Bu \\
y = Cx+Du
\end{cases}$
et $T\in\K^{n\times n}$ inversible et $z$ tel que $x(t)= Tz(t)$. Alors:
\subsection{Commandabilité et observabilité pour les formes canoniques}
Une forme canonique :
\begin{itemize}
\item de commandabilité est toujours commandable, l'observabilité est à étudier
\item d'observabilité est toujours observable, la commandabilité est à étudier\\
\end{itemize}
Cas des formes modales :
\[
(S) : \left\{
\begin{array}{rl}
\left[
\begin{array}{c}
\dot{\xi_1}\\
\vdots\\
\dot{\xi_n}
\end{array}
\right]
& = \left[
\begin{array}{ccc}
\lambda_1 \\
&\ddots\\
&&\lambda_n
\end{array}
\right]
.
\left[
\begin{array}{c}
\xi_1 \\
\vdots\\
\xi_n
\end{array}
\right]
+
\left[
\begin{array}{c}
z_1 \\
\vdots\\
z_n
\end{array}
\right]
u \\
y & = [\gamma_1 \dots\gamma_n]
\vect{z_1 \\\vdots\\z_n}
+ D_n
\end{array}
\right.
\]
$(S)$ est commandable (resp. observable) si et seulement si tous les modes sont commandables (resp. observables)
Si dans la matrice d'application exprimée dans la base modale, un des coefficients est nul, alors le mode correspondant, donc le système, n'est pas commandable. Il en est de même pour la matrice d'observation et l'observabilité.\\
Cas des formes de Jordan : (exemple)
\[\dot{x}=\begin{bmatrix}
\lambda_1 & 1&\\
&\lambda_1 &\\
&&\lambda_1 \\
\end{bmatrix}
x + \vect{.\\.\\.\\} u, \quad u \in\R
\]
Ce n'est pas un système commandable.
Dans un système monovariable ($y\in\R, u\in\R$), si un mode multiple est associé à au moins 2 blocs de Jordan, alors ce mode n'est pas commandable / observable.
\section{Commande par retour d'état}
\[(S) :
\left\{
\begin{array}{ll}
\dot{x}&= Ax + Bu, \quad x(0)=x_0 \in\R^n \\
y & = Cx+Du
\end{array}
\right.
\]
Étant donné un système en boucle ouverte où $A$ peut posséder des modes / pôles instables, faiblements amortis, lents,... le but est de se donner un ensemble $\{\lambda_1^{des}, \dots, \lambda_n^{des}\}\in\C^n$ auto-conjugué, et de chercher une loi de commande $u(t)$ permettant d'obtenir en boucle fermée un système dont les pôles / modes sont $\{\lambda_1^{des}, \dots, \lambda_n^{des}\}$.
On suppose que les $x_k(t)$ sont mesurables, i.e. $x(t)$ est mesurable.\\
\begin{defin}
Une loi de commande par retour d'état est une expression du type
\[u(t)=\kappa(x(t))\text{ où }\kappa : \begin{array}{ll}
\R^n &\rightarrow\R\\
x(t) &\mapsto u(t) = \kappa(x(t))
\end{array}
\]
Dans le cas d'une loi de commande linéaire, la ldc par retour d'état est une expression du type :
\[ u(t)= Kx(t)\text{ où } K\in\R^{1\times n}\]
$K$ est alors appelé gain du rectour d'état.
Une ldc linéaire par retour d'état et consigne est une expression du type :
\[ u(t)= Kx(t)+\eta e(t)\]
où $K\in\R^{1\times n}$ gain du retour d'état, $\eta\in\R$ terme de précommande et $e(t)$ signal de consigne (ou de référence).
\end{defin}
\subsection{Mise en équation (cas continu) :}
\[(\Sigma) :
\left\{
\begin{array}{ll}
\dot{x}&= Ax + Bu, \quad x(0)=x_0 \in\R^n \\
y & = Cx+Du
\end{array}
\right.
\]
\begin{align*}
\intertext{Avec $u=Kx+\eta e$,}
\dot{x}& = Ax + BKx + \eta Be \\
& = (A+BK)x+\eta Be
\intertext{Posons $A_{bf}= A+BK \in\K^{n \times n}$ matrice d'évolution en bf, $B_{bf}=\eta B \in\K^{n\times1}$ matrice d'application du signal de consigne}
Preuve par récurrence, la preuve en dimension 3 est \og laissé en exercice au lecteur\fg{}.
\end{proof}
\paragraph{Remarque} : il n'y a pas besoin de calculer l'inverse de $\mathcal{C}(A,B)$ dans son intégralité, mais seulement la dernière ligne, c'est-à-dire seulement la dernière colonne de la matrice des cofacteurs.
\subsection{Calcul du terme de précommande $\eta$}
\[(S) :
\left\{
\begin{array}{ll}
\dot{x_c}&= (A+BK) x + B\eta u\\
y & = (C+DK) x+ B\eta u
\end{array}
\right.
\]
Soit $G_{bf}(p)=((C+DK)(p1_n-A-BK)^{-1}B+D)\eta$
Erreur statique nulle $\Leftrightarrow G_{bf}(0)=1$ (gain statique unitaire en bf)
\[\eta=\frac{-1}{(C+DK)(A+BK)^{-1}B-D}\]
Remarque : en cas de boucle mal posée (quand le dénominateur est nul), on peut mettre en série du système de départ un filtre passe-bas.
On parle aussi d'une chaîne d'intégrateurs en cascade.
\subsubsection{Application au suivi de trajectoire}
Soit $y_d(t)$ une trajetoire désirée en boucle fermée.
Si $y(t)= z_1(t)$ (par exemple), $\dots y^{(n)}(t)= z_1^{(n)}(t)= v$,
soit $\epsilon(t)= y(t)- y_d(t)= z_1(t)- y_d(t),\dots,\epsilon^{(n)}(t)= v(t)- y_d^{(n)}(t)$
On pose \[v(t)= y_d^{(n)}(t)+ k_{n-1}(y^{(n-1)}(t)-y_d^{(n-1)}(t))+ ... + k_1(y^{(1)}(t)-y_d^{(1)}(t))+ k_0(y-y_d)\]
où les racines du polynôme caractéristique $p^n + k_{n-1}p^{n-1}+ k_1p+k_0$ sont à partie réelle strictement négative, alors
\[\lim_{t\rightarrow\infty} y(t)= y_d(t)\]
Enfin, \[u(t)= v(t)+ a^Tx_c\]
\newpage
\section{Observateur}
\emph{CF polycopié}
\subsection{Concept}
\[(S) :
\left\{
\begin{array}{ll}
\dot{x}&= Ax + Bu,\quad x(0) = x_0 \in\R^n \\
y & = Cx+Du
\end{array}
\right.
\]
Seul $y$ est mesuré à chaque instant par un capteur.\\
L'observateur donne une estimation du vecteur d'état du système telle que :
$\forall\epsilon > 0,$ arbitrairement petit, $\exists T > 0$ tel que
\[\forall t > T, ||x(t)-\hat{x}(t) || < \epsilon\]
But: faire la synthèse du système $(O)$ sous forme d'état, appelé observateur du système $(S)$.
\subsection{Observateur asymptotique (extension de l'observateur de Luenberger)}
Hypothèse : système $(S)$ observable
\begin{defin}
Un observateur asymptotique d'ordre $n$ est donné par le modèle d'état \[\dot{\hat{x}}=A\hat{x}+Bu+L(y-\hat{y}), \quad\hat{x}(0)=\hat{x}_0\in\R^n\] où $\hat{x}\in\R^n$ est le vecteur d'état quelconque de l'observateur et $L\in\R^{n\times1}$ est le gain de l'observateur asymptotique. $L(y-\hat{y})$ correspond à un terme de correction, et $\epsilon_y=y-\hat{y}$ est appelé innovation.
\end{defin}
\textbf{\textbf{But :}} calculer $L\in\R^{n\times1}$ tel que $\lim_{t\rightarrow\infty} ||x(t)-\hat{x}(t) || =0$\\
Soit $\epsilon_x(t)= x(t)-\hat{x}(t)\in\R^n$, on a
Or, $y(t)= Cx(t)+ Du(t)$ et $\hat{y}=C\hat{x}(t)+Du(t)$, donc $y-\hat{y}= C\epsilon_x$
\[\dot{\epsilon_x}(t)=(A-LC)\epsilon_x(t)\]
$\epsilon_x(0)= x(0)-\hat{x}(0)= x_0-\hat{x_0}$ avec $x_0$ inconnu et $\hat{x_0}$ choisi arbitrairement par l'utilisateur.
\[\epsilon_x(t)= e^{(A-LC)t}(x_0-\hat{x}_0)\]
$A-LC$ : dynamique d'observation.
Si les valeurs propres de $A-LC$ sont à partie réelle strictement négative, alors \[\lim_{t\to\infty}\epsilon_x(t)=0\quad\text{i.e.}\quad\lim_{t\to\infty}\hat{x}(t)= x(t)\]
Ainsi, on se donne un polynôme caractéristique désiré pour la dynamique d'observation
Soit $L=[l_1\quad ... \quad l_{n-1}]^T$, le calcul de $L$ s'appuie sur la résolution du système linéaire (de type $ML=b$) issu de l'identification terme à terme des monômes de $P_{A-LC}(\lambda)= det (\lambda1_n -(A-LC))$ avec ceux de $\Pi_o(\lambda)$.
Soit $T\in\R^{n\times n}$ inversible tel que $x(t)= Tx_0(t)$ conduit à la forme canonique d'observabilité, c'est-à-dire avec
Son polynôme caractéristique est $P_{A_0-\tilde{L}C_0}(\lambda)=\lambda^n +(a_{n-1}\tilde{l}_{n-1})\lambda^{n-1}+ ... +(a_0+\tilde{l}_0)$ (déduit de la forme de la matrice compagnon).\\
En identifiant terme à terme les monômes de $\Pi_d(\lambda)$ avec $P_{A-LC}(\lambda)$ : $\tilde{l}_j =\gamma_j - a_j$ d'où on en déduit $L = T\tilde{L}$.
\subsection{Correcteur par retour de sortie - Correcteur par retour d'état sur l'état reconstruit}
\[(S) :
\left\{
\begin{array}{ll}
\dot{x}&= Ax + Bu,\quad x(0) = x_0 \in\R^n \\
y & = Cx+Du
\end{array}
\right.
\]
Loi de commande par retour d'état et consigne :
\[ u(t)= Kx(t)+\eta e(t)\] où $x$ était supposé entièrement mesurable.\\
En pratique on utilisera
\[
(C) \left\{
\begin{array}{ll}
\dot{\hat{x}}&= Ax + Bu + L(y-\hat{y})\\
\hat{y}& = C\hat{x}+Du
\end{array}
\right.
\]
\[u(t)= K\hat{x}(t)+\eta e(t)\]
Correcteur dynamique par retour de sortie avec la structure observateur - retour d'état sur l'état reconstruit.