cours-m1-eea/451-Signal_Image/TD/TD8.tex

206 lines
10 KiB
TeX
Raw Permalink Normal View History

2019-05-02 09:40:40 +02:00
\documentclass[main.tex]{subfiles}
\begin{document}
\newcommand{\snn}{\sum_n}
On cherche à estimer $V$ (paramètre constant).
On relève la position du véhicule le long du rail à des instants $t_n=nT$.
On considère $Y_n=nTV+B_n$, avec $B_n~N(0,\sigma_B^2)$.
À $t_n=t_0=0$, le mobile se trouve en 0.
\section{Expériences}
\begin{enumerate}\setlength{\itemsep}{10mm}
\item On trace la droite qui passe au mieux par tous les points et l'origine, on trouve une pente d'environ 1 m/s.
L'hypothèse "bruit blanc" a l'air de marcher mais ne pas faire de conclusion rapide (on n'a que 10 mesures).
\item La "meilleure droite" ne passe pas par l'origine. Les causes possibles sont : un bruit non centré, ou une position non nulle à $t_0=0$. On a l'impression que le bruit est corrélé, mais on ne peut pas tirer de conclusion.
\item Pour obtenir la ddp de $\hat{V}$ :
\begin{itemize}
\item Méthode basée sur l'expérience : chaque jeu d'observation donne $\hat{v}_i$ et on trace l'histogramme (voir TP d'initiation à Matlab).
\item Méthode de changement de variable : ddp de $B_n$, puis ddp de $Y_n$ et enfin (passage difficile) ddp de $\hat{V}$.
\end{itemize}
Remarque : $\hat{V}~N(m_{\hat{v}},\sigma_{\hat{V}}^2)$
\begin{itemize}
\item 1er estimateur (non biaisé) : $m_{\hat{v}}=1m/s$ et $\sigma_{\hat{V}}=0,08m/s$
\item 2ème estimateur (non biaisé) : $m_{\hat{v}}=1m/s$ et $\sigma_{\hat{V}}=0,04m/s$, meilleur estimateur car meilleur écart-type.
\end{itemize}
\end{enumerate}
\subsection{Estimateur empirique}
Dans cette partie, $Y_n=nTV+B_n$ avec bruit faible, donc $V=\frac{y_n}{nT}$.
\begin{enumerate}\setlength{\itemsep}{10mm}
\item On mesure $y_n$. \[\hat{V}_{emp}=\frac{Y_n}{nT}\]
\[E[\hat{V}_{emp}] = \frac{E[Y_n]}{nT}=\frac{E[nTV+B_n]}{nT} = V+\frac{E[B_n]}{nT} = V\]
donc l'estimateur est non biaisé.
\[\sigma_{\hat{V}_{emp}}^2 = E[(\hat{V}_{emp}-m_{\hat{V}_{emp}})^2] = E[(\frac{Y_n}{nT}-V)^2] = E[(\frac{nTV+B_n}{nT}-V)^2] = \frac{1}{(nT)^2}E[B_n^2]\]
\[\sigma_{\hat{V}_{emp}}=\frac{\sigma_B}{nT}\]
Ainsi, pour minimiser $\sigma_{\hat{V}_{emp}}$, on prend $n=N$ (la plus grande mesure).
\item On dispose de $N$ mesures $y_1,...y_N$
\[\hat{V}_{emp}=\frac{\snn \frac{Y_n}{nT}}{n}\]
L'estimateur n'est pas biaisé car :
\[ E[\hat{V}_{emp}] = \frac{\snn \frac{E[Y_n]}{nT}}{N}=V\]
Écart-type de l'estimateur :
\begin{align*}
\sigma_{\hat{V}_{emp}}^2 & = E[(\hat{V}_{emp}-m_{\hat{V}_{emp}})^2]\\
& = E[(\hat{V}_{emp}-V)^2] \\
& = E[(\frac{\snn V+\frac{B_n}{nT}}{N}- \frac{NV}{N})^2] \\
& = \frac{1}{N^2}E[(\snn\frac{B_n}{nT})^2] \\
& = \frac{1}{(NT)^2}E[(\snn \frac{B_n}{n})^2] \\
& = \frac{1}{(NT)^2}(\snn\frac{E[B_n^2]}{n^2}+\sum_{n\neq m}\frac{E[B_nB_m]}{nm}) \\
\intertext{Le bruit est blanc, donc les $E[B_nB_m]=0$}
\sigma_{\hat{V}_{emp}}^2 & = \frac{\sigma_B^2}{(NT)^2}\snn\frac{1}{n^2} \\
\sigma_{\hat{V}_{emp}} & = \frac{\sigma_B}{nT}\sqrt{S_1}
\end{align*}
Or, $\frac{\sigma_B}{nT}\sqrt{S_1} > \frac{\sigma_B}{nT}$. Cela signifie que notre estimateur avec 1 mesure est "meilleur" que celui avec $n$ mesures. On est triste d'avoir considéré les premières mesures qui sont très sensibles, comme nous, mais au bruit.
\end{enumerate}
\subsection{Préliminaires}
$V$ grandeur certaine mais inconnue, $Y_n=nTV+B_n$ et $B_n=N(0,\sigma_B^2)$.
\begin{enumerate}
\item Moyenne de $Y_n$ : $m_n = E[Y_n] = nTV$.
Écart-type de $Y_n$ : $\sigma_n^2=E[(Y_n-m_n)^2] = E[B_n^2]$ donc $\sigma_n=\sigma_B$
Coefficient de corrélation : \[\rho_{mn} = \frac{E[(Y_n-m_n)(Y_m-m_m)]}{\sigma_n\sigma_m} = \frac{E[B_nB_m]}{\sigma_B^2} = \left\{\begin{array}{cc} 1 & \si m=n \\ 0 & \si m\neq n \end{array}\right. = \delta_{n-m}\]
\item Par changement de variables aléatoires si ça t'amuse,
\[f_{Y_n}(y_n) = f_{B_n}(y_n-nTV) = \\frac{1}{\sqrt{2\pi \sigma_b^2}}e^{-frac{(y_n-nTV)^2}{2\sigma_b^2}}\]
Le caractère gaussien se conserve par transformation linéaire, i.e. toute combinaison linéaire de VA suivant une loi gaussienne suit aussi une loi gaussienne. Attention, ne pas sommer les ddp.
Les $Y_i$ étant indépendants (car les $B_i$ sont indépendants car blancs) :
\[f_{Y_1,...Y_n}(y_1,...y_n)=\prod_{i=1}^N f_{Y_i}(y_i)=\frac{1}{(2\pi)^{N/2}\sigma_B^N}\exp(-\frac{1}{2}\frac{\snn(y_n-nTV)^2}{\sigma_B^2})\]
\[f_{\mathbf{Y}}(\mathbf{y}) =\frac{1}{(2\pi)^{N/2}\sigma_B^N}\exp(-\frac{1}{2}\frac{(\mathbf{y}-E[\mathbf{y}])^T(\mathbf{y}-E[\mathbf{y}])}{\sigma_B^2})\]
\end{enumerate}
\noindent Rappel : la décorrélation n'implique pas l'indépendance, il faut le caractère "gaussiens dans leur ensemble".
\subsection{Estimateur des moindres carrés}
\begin{enumerate}\setlength{\itemsep}{10mm}
\item L'estimateur au sens des moindres carrés de $V$ est :
\[ \hat{v}_{MC} = \arg_V \min \sum_{n=1}^N (y_n-nTV)^2\]
En posant $J_{MC} : V \rightarrow \sum_{n=1}^N(y_n-nTV)^2$, $J_{MC}$ est une parabole (concavité tournée vers le haut). On a alors une condition nécessaire et suffisante à la minimisation :
\begin{align*}
\frac{dJ_{MC}}{dV}|_{V =\hat{V}_{MC}} = 0 & \Leftrightarrow \sum_{n=1}^N 2(-nT)(y_n-nTV) = 0 \\
& \Leftrightarrow \sum_{n=1}^N ny_n - \hat{v}_{MC} T \sum_{n=1}^N n^2 = 0 \\
& \Leftrightarrow \hat{v}_{MC} = \frac{\snn ny_n}{T\sum_{n=1}^N n^2} \\
& \Leftrightarrow \hat{V}_{MC} = \frac{\snn nY_n}{TS_2}
\end{align*}
\item Calculons la moyenne de l'estimateur.
\[m_{MC} = E[\hat{v}_{MC}] = \frac{\snn n E[Y_n]}{T S_2} = \frac{\snn n (nTV)}{T S_2} = V\]
L'estimateur non biaisé.\\
On s'intéresse à son écart-type.
\begin{align*}
\sigma_{MC}^2 & = E[(\hat{V}_{MC}-m_{MC})^2]\\
& = E[(\hat{V}_{MC}-V)^2] \\
& = E[(\frac{\snn nY_n}{TS_2}-V)^2] \\
& = E[(\frac{\snn n^2 (TV + nB_n) - TV\snn n^2}{TS_2})^2] \\
& = E[(\frac{\snn nB_n}{TS_2})^2]
\intertext{Comme les $B_n$ sont décorrélés, les doubles produits sont tous nuls}
\sigma_{MC}^2 & = \frac{\snn n^2 E[B_n^2]}{T^2 S_2^2} \\
\sigma_{MC} & = \frac{\sigma_B}{T\sqrt{S_2}}
\end{align*}
Comme $S_2=\snn n^2 > N^2$, on a $\sqrt{S_2} > N$ donc $\sigma_{MC} < \sigma_{emp} = \frac{\sigma_B}{NT}$.
Notre estimateur est meilleur que l'estimateur empirique.
\end{enumerate}
\newpage
\subsection{Estimateur du maximum de vraisemblance}
\begin{enumerate}\setlength{\itemsep}{10mm}
\item L'estimateur du maximum de vraisemblance de $V$ est donné par
\[ \hat{v}_{MV} = \arg_V \max f_{\textbf{Y}}(\mathbf{y}) \]
Remarque : dans le cas où $V$ est incertain, $\arg_v \max f_{\mathbf{Y}/V=v}(\mathbf{y})$.\\
$Y$ suit une loi gaussienne donc :
\[ \hat{v}_{MV} = \arg_V \max f_{\textbf{Y}}(\mathbf{y}) = \arg_V \min \snn (y_n-nTV)^2 = \arg \min J_{MC}(V)\]
\item Identique à la partie précédente car $\hat{V}_{MV} = \hat{V}_{MC}$.
\end{enumerate}
\subsection{Estimateur du maximum a posteriori}
\begin{itemize}
\item $V$ suit une loi gaussienne $N(V_0,\sigma_V^2)$
\item les VA $B_n$ et $V$ sont indépendantes 2 à 2
\end{itemize}
\medskip
On a 2 types d'informations :
\begin{itemize}
\item celle qui vient des mesures $y_n$
\item celle qui vient de l'a priori $V$
\end{itemize}
\begin{enumerate}\setlength{\itemsep}{10mm}
\item Dans le cas où $V=v$ ($v$ est certain), on ne change pas pour autant le comportement de $B_1,...B_n$, donc de $Y_1...Y_n$ :
\[ f_{\mathbf{Y}/V=v}(\mathbf{y}) = \frac{1}{(2\pi)^{N/2}\sigma_B^N}\exp(-\frac{1}{2}\frac{\snn(y_n-nTv)^2}{\sigma_B^2}) \]
\item On utilise la règle de Bayes :
\[f_{V/\mathbf{Y}=\mathbf{y}}(v) = \frac{f_{\mathbf{Y}/V=v}(\mathbf{y}) f_V(v)}{f_{\mathbf{Y}}(\mathbf{y})} \]
$f_{\mathbf{Y}}(\mathbf{y})$ ne dépend pas de $v$ car on peut la calculer selon $f_{\mathbf{Y}}(\mathbf{y}) = \int_{\R} f_{\mathbf{Y},V}(\mathbf{y},v)dv$.
\item L'estimateur du maximum a posteriori de $V$ est donné par :
\[\hat{v }_{MAP} = \arg_v \max f_{V/\mathbf{Y}=\mathbf{y}}(v)\]
Or \[ f_{V/\mathbf{Y}=\mathbf{y}}(v) = cste \times \exp(-\frac{1}{2}(\frac{\snn (y_n - nvT)^2}{\sigma_B^2} + \frac{(v-V_0)^2}{\sigma_V^2})) \]
On pose $J_{MAP} = \frac{\snn (y_n - nvT)^2}{\sigma_B^2} + \frac{(v-V_0)^2}{\sigma_V^2}$ et on a alors $\hat{v}_{MAP} = \arg_v \min J_{MAP}(v)$.
CNS de maximisation :
\begin{align*}
\frac{dJ_{MAp}}{dV}|_{V =\hat{v}_{MAP}} = 0 & \Leftrightarrow -2T \frac{\snn (y_n - nvT)n}{\sigma_B^2} + 2\frac{(v-V_0)}{\sigma_V^2} = 0 \\
& \Leftrightarrow \hat{v}_{MAP} = \frac{\frac{T\snn ny_n}{\sigma_B^2}+\frac{V_0}{\sigma_V^2}}{\frac{T^2 \snn n^2}{\sigma_B^2} + \frac{1}{\sigma_V^2}} \\
& \Leftrightarrow \hat{v}_{MAP} = \frac{\frac{\hat{v}_{MV}}{\sigma_{MV}^2} + \frac{V_0}{\sigma_V^2}}{\frac{1}{\sigma_{MV}^2} + \frac{1}{\sigma_V^2}}
\end{align*}
Donc
\[ \hat{V}_{MAP} = \frac{\frac{\hat{V}_{MV}}{\sigma_{MV}^2} + \frac{V_0}{\sigma_V^2}}{\frac{1}{\sigma_{MV}^2} + \frac{1}{\sigma_V^2}} \]
C'est un barycentre entre les mesures représentées par $\hat{v}_{MV}$ et l'a priori $V_0$.
\begin{itemize}
\item Si $\sigma_V$ "petit", alors $\hat{V}_{MAP} \approx V_0$ : beaucoup d'a priori donc on n'a pas exploité les mesures.
\item Si $\sigma_V$ "grand", alors $\hat{V}_{MAP} \approx \hat{V}_{MV}$ : l'a priori est tellement pourri qu'on n'en tient pas compte.
\end{itemize}
\item On forme l'erreur d'estimation
\[ \tilde{V}_{MAP} = \hat{V}_{MAP} - V \]
\begin{itemize}\setlength{\itemsep}{10mm}
\item Biais ?
\[ E[\tilde{V}_{MAP}] = E[\hat{V}_{MAP}] - E[V] = 0 \]
\item Variance de l'erreur d'estimation : puissance de l'erreur dans le cas non biaisé.
\begin{align*}
\sigma_{MAP}^2 & = E[ (\tilde{V}_{MAP} - E[\hat{V}_{MAP}])^2] \\
& = E [(\hat{V}_{MAP} - V)^2] \\
& = E [ (\frac{\frac{\hat{V}_{MV}-V}{\sigma_{MV}^2} + \frac{V_0-V}{\sigma_V^2}}{\frac{1}{\sigma_{MV}^2} + \frac{1}{\sigma_V^2}})^2]\\
& = \frac{1}{(\frac{1}{\sigma_{MV}^2} + \frac{1}{\sigma_V^2})^2} E [(\frac{\hat{V}_{MV}-V}{\sigma_{MV}^2} + \frac{V_0-V}{\sigma_V^2})^2] \\
& = \frac{1}{(\frac{1}{\sigma_{MV}^2} + \frac{1}{\sigma_V^2})^2}( \frac{E[(\hat{V}_{MV}-V)^2]}{\sigma_{MV}^4} + \frac{E[(V_0-V)^2}{\sigma_V^4}) \\
& = \frac{1}{(\frac{1}{\sigma_{MV}^2} + \frac{1}{\sigma_V^2})^2}( \frac{\sigma_{MV}^2}{\sigma_{MV}^4} + \frac{\sigma_V^2}{\sigma_V^4}) \\
\sigma_{MAP}^2 & = (\frac{1}{\sigma_{MV}^2} + \frac{1}{\sigma_V^2})^{-1}
\end{align*}
On a donc $ \sigma_{emp} > \sigma_{MV} > \sigma_{MAP}$.
\end{itemize}
\end{enumerate}
\end{document}