220 lines
9.1 KiB
TeX
220 lines
9.1 KiB
TeX
|
\documentclass[main.tex]{subfiles}
|
||
|
|
||
|
\begin{document}
|
||
|
|
||
|
\newcommand{\hth}{\hat{\theta}}
|
||
|
\newcommand{\hx}{\hat{x}}
|
||
|
\newcommand{\bY}{\mathbf{Y}}
|
||
|
\newcommand{\bH}{\mathbf{H}}
|
||
|
\newcommand{\erth}{\tilde{\theta}}
|
||
|
\newcommand{\erx}{\tilde{x}}
|
||
|
\newcommand{\gxx}{\gamma_{xx}}
|
||
|
|
||
|
\subsection{Introduction}
|
||
|
|
||
|
\begin{itemize}
|
||
|
\item Grandeur à estimer : VA $\theta = x(t+\Delta t)$, $\Delta t >0$.
|
||
|
\item Information a priori : $x(t)$ SA réel, scalaire, centré ($\forall t \in \R, E[x(t)] = 0$), stationnaire ($E[x(t)] = m_x(t) = m_x$).
|
||
|
|
||
|
\item Observations / mesures : dans la partie II, $Y=x(t)$ et dans la partie III, $\bY=\vect{ x(t) \\ x'(t) }$
|
||
|
\item Choix de l'estimateur : estimateur linéaire : $\hth = \bH \bY$
|
||
|
\begin{itemize}
|
||
|
\item Partie II : $\hth = \hx (t+\Delta t) = Hx(t)$
|
||
|
\item Partie III : $\hth = \hx (t+\Delta t) = \bH \vect{x(t) \\ x'(t) } = [a \quad b]\vect{ x(t) \\ x'(t)} =ax(t) + bx'(t)$
|
||
|
\end{itemize}
|
||
|
|
||
|
\item Calcul des caractéristiques statistiques de l'estimateur
|
||
|
\begin{itemize}
|
||
|
\item $ \erth = \hx(t+\Delta t) - x(t+\Delta t)$
|
||
|
\item $E[\erth] = $ biais(moyen)
|
||
|
\item $E[\erth^2] = P_{\erth} = E[(\hth-\theta)^2] =$ erreur quadratique moyenne (puissance de l'erreur)\\
|
||
|
\end{itemize}
|
||
|
\end{itemize}
|
||
|
|
||
|
Objectif : Minimiser $P_{\erth}$\\
|
||
|
|
||
|
\begin{itemize}
|
||
|
\item Variations lentes : $x(t+\Delta t) \approx x(t)$.
|
||
|
|
||
|
$\hx(t+\Delta t) = x(t) = 1.x(t)$. L'erreur d'estimation vient de celle de $x(t+\Delta t) \approx x(t)$.
|
||
|
|
||
|
$\hx(t+\Delta t) = 1.x't) + \Delta t x'(t)$
|
||
|
|
||
|
\item Fortement corrélé : $\gxx(\Delta t) \approx \gxx(0)$.
|
||
|
|
||
|
On obtient les mêmes expressions que précédemment pour $\hx(t+\Delta t)$.
|
||
|
|
||
|
\item Faiblement corrélé : la fonction d'autocorrélation est "plus étroite" : $\gxx(\Delta t) \approx 0$
|
||
|
|
||
|
$\hx(t+\Delta t) = 0$ i.e. $a=0,b=0$
|
||
|
|
||
|
\item Signal sinusoïdal
|
||
|
|
||
|
$\hx(t+\Delta t) = \frac{x_1(t+\Delta t) + x_2(t+\Delta t)}{2}$ si on a seulement accès à $x(t)$
|
||
|
|
||
|
$\hx(t+\Delta t) = x(t+\Delta t)$ si on a accès à $x(t)$ et $x'(t)$.
|
||
|
\end{itemize}
|
||
|
|
||
|
\subsection{Estimateur à partir de $x(t)$}
|
||
|
|
||
|
On utilise l'estimateur suivant :
|
||
|
\[\hx(t+\Delta t) = a.x(t) \]
|
||
|
\begin{enumerate}\setlength{\itemsep}{5mm}
|
||
|
\item Calculons l'erreur moyenne :
|
||
|
\begin{align*}
|
||
|
E[\erx(t+\Delta t)] & = E[\hx(t+\Delta t) - x(t+\Delta t)] \\
|
||
|
& = E[a.x(t) - x(t+\Delta t)] \\
|
||
|
& = aE[x(t)] - E[x(t+\Delta t)] \\
|
||
|
& = 0 \text{ car le signal est centré}
|
||
|
\end{align*}
|
||
|
L'estimateur est non biaisé car la moyenne de l'estimateur est égale à la moyenne du signal.
|
||
|
|
||
|
\item Calculons l'erreur quadratique :
|
||
|
\begin{align*}
|
||
|
P_{\erth} & = E[\erx(t+\Delta t)^2] \\
|
||
|
& = E[(ax(t)-x(t+\Delta t))^2] \\
|
||
|
P_{\erth}(a) & = a^2 \gxx(0) -2a\gxx(\Delta t)+\gxx(0)
|
||
|
\end{align*}
|
||
|
|
||
|
$P_{\erth}(a)$ est une parabole et $\gxx(a)>0$ donc on a la CNS de maximum :
|
||
|
\[ \frac{dP_{\erth}(a)}{da}|_{a_{opt}} = 0 \Leftrightarrow a_{opt} = \frac{\gxx(\Delta t)}{\gxx(0)} \in [-1,1] \]
|
||
|
|
||
|
On en déduit l'erreur quadratique minimale :
|
||
|
\[P_{min} = P_{\erth}(a_{opt}) = \gxx(0) - \frac{\gxx^2(\Delta t)}{\gxx(0)} = \gxx(0)(1-(\frac{\gxx(\Delta t)}{\gxx(0)})^2)\]
|
||
|
|
||
|
Calculons l'erreur moyenne de $\erx(t+\Delta t)x(t)$ :
|
||
|
\begin{align*}
|
||
|
E[\erx(t+\Delta t)x(t)] & = E[(ax(t) - x(t+\Delta t)) x(t)] \\
|
||
|
& = a \gxx(0) - \gxx(\Delta t)
|
||
|
\intertext{Pour $a = a_{opt}$,}
|
||
|
E[\erx(t+\Delta t)x(t)] & = 0 \text{ (principe d'orthogonalité)}
|
||
|
\intertext{On peut réécrire ce résultat :}
|
||
|
E[\erx(t+\Delta t)x(t)] & = \gamma_{x\erx}(\Delta t) = 0
|
||
|
\end{align*}
|
||
|
Autrement dit, il ne reste plus d'information commune entre $\erx(t+\Delta)$ et $x(t)$. On a extrait ce qu'on pouvait. Si on ne l'avait pas fait ($\gamma_{x\erx}(\Delta t) \neq 0$), on pourrait trouver un meilleur estimateur.
|
||
|
|
||
|
\item Dans le cas du bruit blanc $\gxx(\Delta t) = 0$ donc $a_{opt}=0$.
|
||
|
|
||
|
Dans le cas du faiblement corrélé, $\gxx(\Delta t)=0$.
|
||
|
|
||
|
Fortement corrélé : $\gxx(\Delta t) \approx \gxx(0)$ donc $a_{opt}\approx 1$
|
||
|
\end{enumerate}
|
||
|
|
||
|
\subsection{Estimateur à partir de $x(t)$ et $x'(t)$}
|
||
|
|
||
|
On considère l'estimateur :
|
||
|
\[ \hx(t+\Delta t) = ax(t) + bx'(t) \]
|
||
|
|
||
|
Hypothèses :
|
||
|
\begin{itemize}
|
||
|
\item $\tau \rightarrow \gamma_{xx}(\tau)$ est dérivable 2 fois
|
||
|
\item $\gxx'(0)=0$
|
||
|
\item $\gxx''(0) <0$
|
||
|
\end{itemize}
|
||
|
|
||
|
\begin{enumerate}\setlength{\itemsep}{5mm}
|
||
|
\item Biais de l'estimateur ?
|
||
|
\begin{align*}
|
||
|
E[\erx(t+\Delta t)] & = E[(\hx(t+\Delta t) - x(t-\Delta t)] \\
|
||
|
& = E[ax(t) + bx'(t) - x(t+\Delta t)]\\
|
||
|
& = a E[x(t)] + bE[x'(t)] - E[x(t+\Delta t)] \\
|
||
|
& = 0
|
||
|
\end{align*}
|
||
|
L'estimateur est non biaisé, et e $\forall a,b\in\R^2$.
|
||
|
|
||
|
\item Erreur quadratique moyenne de l'estimateur ?
|
||
|
\begin{align*}
|
||
|
P_{\erth} &= E[\erx(t+\Delta)^2] \\
|
||
|
& = E[(ax(t)+bx'(t)-x(t+\Delta t))^2] \\
|
||
|
& = a^2E[x(t)^2] + b^2E[x'(t)^2]+E[x(t+\Delta t)^2] + 2abE[x(t)x'(t)] \\& \qquad - 2aE[x(t)x(t+\Delta t) - 2bE[x'(t)x(t+\Delta t)] \\
|
||
|
\intertext{D'après les résultats démontrés au TD précédent (via formule des interférences) : }
|
||
|
P_{\erth} & = a^2\gxx(0) -b^2\gxx''(0)+\gxx(0) -2ab\gxx'(0)-2a\gxx(\Delta t) +2b\gxx'(\Delta t) \\
|
||
|
& = (1+a^2)\gxx(0) -b^2\gxx''(0) -2a\gxx(\Delta t) +2b\gxx'(\Delta t)
|
||
|
\end{align*}
|
||
|
|
||
|
Ceci définit sans conteste un fantastique paraboloïde tourné ver le haut ! En effet, les coefficients de vant $a^2$ et $b^2$ ont le bon goût d'être positifs (car $gxx(0)=P_x>0$ et $\gxx''(0)<0$ (puissance maximum en 0)).
|
||
|
|
||
|
Tout ça pour ne pas minimiser la belle fonction à deux variables, car on a maintenant une CNS de minimum de l'erreur quadratique :
|
||
|
\[ \frac{\partial P_{\erth}}{\partial a}|_{a=a_{opt}} = 0 \quad \et \quad \frac{\partial P_{\erth}}{\partial b}|_{b=b_{opt}} \]
|
||
|
|
||
|
On en déduit donc :
|
||
|
\[ a_{opt} = \frac{\gxx(\Delta t)}{\gxx(0)} \quad \et \quad b_{opt} = \frac{\gxx'(\Delta t)}{\gxx''(0)} \]
|
||
|
puis
|
||
|
\[P_{\erth}(a_{opt},b_{opt}) = \gxx(0) - \frac{\gxx^2(\Delta t)}{\gxx(0)} + \frac{\gxx'^2(\Delta t)}{\gxx''(0)} \]
|
||
|
|
||
|
On compare les 2 estimateurs :
|
||
|
\[P_{min,2} = \gxx(0)[1 -(\frac{\gxx(\Delta t)}{\gxx(0)})^2] + \frac{\gxx'^2(\Delta)}{\gxx''(0)} = P_{min,1} + \frac{\gxx'^2(\Delta)}{\gxx''(0)} \]
|
||
|
|
||
|
Or, $\frac{\gxx'^2(\Delta)}{\gxx''(0)}<0$ donc $P_{min,2} < P_{min,1}$
|
||
|
|
||
|
\begin{align*}
|
||
|
E[\erx(t+\Delta t)x(t)] & = E[(ax(t)+bx'(t)-x(t+\Delta t))x(t) \\
|
||
|
& = a\gxx(0) - b\gxx'(0) - \gxx(\Delta t) \\
|
||
|
& = a\gxx(0) - \gxx(\Delta t) \\
|
||
|
& = 0 \avec a=a_{opt}
|
||
|
\end{align*}
|
||
|
|
||
|
\begin{align*}
|
||
|
E[\erx(t+\Delta t)x(t)] & = E[(ax(t)+bx'(t)-x(t+\Delta t))x'(t)] \\
|
||
|
& = a\gxx'(0) - b\gxx''(0) +\gxx'(\Delta t) \\
|
||
|
& = - b\gxx''(0) +\gxx'(\Delta t) \\
|
||
|
& =0 \avec b = b_{opt}
|
||
|
\end{align*}
|
||
|
|
||
|
On aurait pu utiliser ce résultat (principe d'orthogonalité) pour trouver les valeurs de $a_{opt}$ et $b_{opt}$.\\
|
||
|
|
||
|
\textbf{Résumé : } dans le cadre d'un estimateur linéaire : \[\hth = \hx (t+\Delta t) = \bH \vect{x(t) \\ x'(t) } = [a \quad b]\vect{ x(t) \\ x'(t)} =ax(t) + bx'(t)\]
|
||
|
\begin{itemize}
|
||
|
\item 1ère méthode : exprimer $P_{\erth}=E[\erth^2]$, chercher le $\bH_{opt} = [a_{opt} \quad b_{opt}]$ tel que $P_{\erth}$ est minimale. On en déduit $\hth=\bH_{opt} \bY$.
|
||
|
\item 2ème méthode : Principe d'orthogonalité, revient à chercher $\bH$ tel que $E[\erth\bY^T]=0$.
|
||
|
\end{itemize}
|
||
|
|
||
|
\[E[\erth\bY^T]=0 \Leftrightarrow \text{Chercher } P_{\erth} min + \text{ estimateur lin. } \]
|
||
|
|
||
|
\textit{Remarque :} Innovation = l'erreur $\erx(t+\Delta t)$ dans le cas où l'estimateur minimise $P_{\erth}$
|
||
|
\end{enumerate}
|
||
|
|
||
|
\subsection{Comparaison}
|
||
|
\begin{enumerate}\setlength{\itemsep}{5mm}
|
||
|
\item \begin{itemize}
|
||
|
\item Les deux estimateurs sont non biaisés.
|
||
|
\item $P_{min,2} \leq P_{min,1}$ : le 2ème est cool !
|
||
|
\end{itemize}
|
||
|
|
||
|
\item On suppose $\Delta t$ "petit". Au début du TD, on avait alors intuité que \[\hx(t+\Delta t) = 1.x't) + \Delta t x'(t)\] soit $a_{opt} = 1$ et $b_{opt} =\Delta t$.
|
||
|
\[a_{opt} = \frac{\gxx(\Delta t)}{\gxx(0)} \approx \frac{\gxx(0) + \Delta t \gxx'(0)}{\gxx(0)}=1\]
|
||
|
\[b_{opt} = \frac{\gxx'(\Delta t)}{\gxx''(0)} \approx \frac{\gxx'(0) + \Delta t \gxx''(0)}{\gxx''(0)}=\Delta t\]
|
||
|
|
||
|
WIRKLICH WUNDERBAR !
|
||
|
|
||
|
\end{enumerate}
|
||
|
|
||
|
\subsection{Application}
|
||
|
|
||
|
On s'intéresse maintenant au signal :
|
||
|
\[ x(t) = E_0\sin(2\pi f_0 t+\phi) \] où $\Phi$ est une VA uniformément répartie sur $[0,2\pi[$
|
||
|
|
||
|
On a montré dans un TD précédent que ce signal est stationnaire et ergodique (à l'ordre 2).
|
||
|
|
||
|
\begin{enumerate}\setlength{\itemsep}{5mm}
|
||
|
\item $E[x(t)] = 0$ car $\Phi$ est une VA uniforme. Par ergodicité et stationnarité au 1er ordre, $\overline{x(t)} = E[x(t)] = 0$.
|
||
|
|
||
|
On calcule la fonction d'autocorrélation et comme on l'a déjà vu :
|
||
|
\[ \gxx(\tau) = \frac{E_0^2}{2}\cos(2\pi f_0 t) \]
|
||
|
|
||
|
\item $\gxx(\tau)=\frac{E_0^2}{2}\cos(2\pi f_0 t)$ a sensiblement l'air périodique, d'amplitude $\frac{E_0^2}{2}$ et de fréquence $f_0$.
|
||
|
|
||
|
\item 1er estimateur : $\hx_1(t+\Delta t) = a_{opt}x(t)$.
|
||
|
|
||
|
Or, $a_{opt} = \frac{\gxx(\Delta t)}{\gxx(0)} = \cos(2\pi f_0 \Delta t)$, donc
|
||
|
\[ \hx_1(t+\Delta t)= E_0 \cos(2\pi f_0 \Delta t)x(t) = E_0 \cos(2\pi f_0 \Delta t) \sin(2\pi f_0 t + \phi) \]
|
||
|
|
||
|
\item 2ème estimateur : $\hx_2(t+\Delta t) = a_{opt}x(t) + b_{opt}x'(t)$.
|
||
|
|
||
|
Or, $a_{opt} = \frac{\gxx(\Delta t)}{\gxx(0)} = \cos(2\pi f_0 \Delta t)$ et
|
||
|
$b_{opt} = \frac{\gxx'(\Delta t)}{\gxx''(0)} = \frac{\sin(2\pi f_0 \Delta t)}{2\pi f_0}$, donc
|
||
|
\[ \hx_2(t+\Delta t) = E_0 \cos(2\pi f_0 \Delta t) \sin(2\pi f_0 t + \phi) + E_0 \frac{\sin(2\pi f_0 \Delta t)}{2\pi f_0} (2\pi f_0 \cos(2\pi f_0 t + \phi)) \]
|
||
|
\[ \hx_2(t+\Delta t) = E_0\sin(2\pi f_0(t+\Delta t) + \phi) = x(t+\Delta t)\]
|
||
|
\end{enumerate}
|
||
|
\end{document}
|