cours-m1-eea/451-Signal_Image/TD/TD4.tex
Pierre-antoine Comby d438079569 changes modes
2020-01-07 15:19:35 +01:00

121 lines
4.8 KiB
TeX
Executable file

\documentclass[main.tex]{subfiles}
\begin{document}
On considère une variable aléatoire scalaire et réelle $Y$ de densité de probabilité :
\[ f_Y(y) = \frac{1}{X}e^{-\frac{y}{X}}u(x) \]
$u(y)$ est la fonction échelon d'Heaviside et X un paramètre réel, inconnu, positif et supposé certain dans un premier temps.
\begin{enumerate}
\item Calcul de la valeur moyenne et de l'écart type de la VA $Y$
\begin{multicols}{2}
\begin{align*}
m_Y & = E[Y] = \int_{\mathbb{R}} y f_Y(y) dy \\
& = \int_0^{\infty} y \frac{1}{X} e^{-\frac{y}{x}} dy \\
& = [y(-e^{-\frac{y}{X}})]_0^{\infty} - \int_0^{\infty} (-e^{-\frac{y}{X}}) dy \\
& = \int_0^{\infty} (-e^{-\frac{y}{X}}) dy \\
& = [-Xe^{-\frac{y}{X}}]_0^{\infty} \\
& m_Y = X \\
\intertext{De plus,}
\sigma_Y^2 & = E[(Y-m_Y)^2] \\
& = E[Y^2] - m_Y^2 \\
E[Y^2] & = \int_0^{\infty} y^2\frac{1}{X}e^{-\frac{y}{X}}dy \\
& = [y^2(-e^{-\frac{y}{X}})]_0^{\infty} + 2X\int_0^{\infty}y\frac{1}{X}e^{-\frac{y}{X}}dy \\
& = 2Xm_Y = 2X^2\\
\sigma_Y^2 & = 2X^2 - X^2 = X^2 \\
\sigma_Y & = X
\end{align*}
\end{multicols}
\[ \boxed{m_Y = \sigma_Y = X} \]
\item On considère $N$ VA $Y_n, n=1..N$ indépendantes et identiquement distribuées.
On note $(y_1,...y_N)$ les réalisations de $(Y_1,...Y_N)$.\\
Grâce au résultat précédent $m_Y = X$, on peut estimer
\[ \hat{x} = \frac{\sum_{n=1}^Ny_n}{N} \]
\[ \hat{X} = \frac{\sum_{n=1}^NY_n}{N} \]
De plus, l'estimateur est non biaisé car
\[ E[\hat{X}] = \frac{\sum_{n=1}^N E[Y_n]}{X} = X \]
\item On souhaite exprimer la ddp conjointe des VA $Y_1,...Y_N$
\begin{align*}
f_\mathbf{Y}(\mathbf{y}) & = f_{Y_1, ... Y_N}(y_1,...y_N) \\
& = \prod_ {n=1}^N f_{Y_n}(y_n) \text{ par indépendance de } Y_1,...Y_N \\
& = \frac{1}{X^N} \exp(-\frac{\sum_ {n=1}^N Y_n}{X}) u(y_1)...u(y_N)
\end{align*}
\item On utilise l'estimateur du maximum de vraisemblance
\[ \hat{x}_{MV} = \arg \max_X f_\mathbf{Y}(\mathbf{y}) \]
$\hat{x}_{MV}$ est la valeur de $x$ qui rend les valeurs $y_1,...y_N$ les plus probables.
Condition nécessaire (non suffisante) :
\begin{align*}
\frac{d f_{\mathbf{Y}} (\mathbf{y}) }{dX} |_{X = \hat{x}_{MV}} = 0 & \Leftrightarrow ...\\
& \Leftrightarrow (-\frac{N}{X} + \frac{\sum_{n=1}^N y_n}{X^2}) f_{\mathbf{Y}}(\mathbf{y}) |_{X = \hat{x}_{MV}} = 0 \\
& \Rightarrow \frac{-N}{\hat{x}_{MV}} + \frac{\sum_{n=1}^N y_n}{\hat{x}_{MV}^2} = 0 \\
& \Rightarrow \hat{x}_{MV} = \frac{\sum_{n=1}^N y_n}{N} \\
& \Rightarrow \hat{X}_{MV} = \frac{\sum_{n=1}^N Y_n}{N}
\intertext{Vérifier que c'est un maximum :}
\frac{d^2 f_{\mathbf{Y}} (\mathbf{y}) }{dX^2} > \text{ ou }& < 0 ? \\
\frac{d f_{\mathbf{Y}} (\mathbf{y}) }{dX} > 0 & \text{ pour } x\rightarrow 0^+ \\
\end{align*}
Calculons la moyenne et l'écart type de $\hat{X}_{MV}$
\begin{align*}
E[\hat{X}_{MV}] & = ... = X \\
\sigma_{MV}^2 & = E[(\hat{X}_{MV} - X)^2] \\
& = E[(\frac{\sum_{n=1}^N Y_n}{N} - \frac{NX}{N})^2] \\
& = E[(\frac{\sum_{n=1}^N (Y_n-X)}{N})^2] \\
& = \frac{1}{N^2} (\sum_{n=1}^N E[(Y_n-X)^2] + \sum_{i \neq j} E[(Y_i-X)(Y_j-X)] \\
& = \frac{NX^2}{N^2} \\
\sigma_{MV} & = \frac{X}{\sqrt{N}}
\end{align*}
\item On a beaucoup plus d'\textit{a priori} (d'informations sur X sans faire l'expérience) avec $\alpha = 1$ qu'avec $\alpha = 10$.
\begin{figure}[h!]
\centering
\begin{tikzpicture}[scale=2,samples=50,domain=0:5]
\draw[-stealth] (0,0) -- (5,0) node[right] {$x$};
\draw[-stealth] (0,0) -- (0,1.5) node[above] {$f_X(x)$};
\draw plot (\x,{exp(-\x)});
\draw[dashed] plot (\x,{0.1*exp(-\x*0.1)});
\end{tikzpicture}
\caption{Tracé de $f_X(x)$ pour $\alpha=1$ (--) et $\alpha=10$ (- -)}
\end{figure}
La courbe pour $\alpha=10$ est beaucoup plus étalée : \[ \sigma_{X,\alpha = 1} < \sigma_{X,\alpha = 10} \]
\item $\hat{x}_{MAP} = \arg \max_X f_{X/\mathbf{Y} = \mathbf{y}} (x) $
Or,
\begin{align*}
f_{X/\mathbf{Y} = \mathbf{y}} (x) & = f_{\mathbf{Y}, X = x} (\mathbf{y}) \frac{f_X(x)}{f_{\mathbf{Y}}(\mathbf{y})} \\
& = \prod_{n=1}^N f_{Y_i,X=x(y_i)}\frac{f_X(x)}{f_{\mathbf{Y}}(\mathbf{y})} \\
& = g(x)u(y_1)...u(y_N)\frac{1}{f_{\mathbf{Y}}(\mathbf{y})}
\intertext{Ainsi,}
\hat{x}_{MAP} & = \arg \max_X f_{X/\mathbf{Y} =\mathbf{y}} (x) = \arg \max g(x)
\end{align*}
Condition nécessaire :
\begin{align*}
\frac{dg(x)}{dx}|_{x=\hat{X}_{MAP}} = 0 & \Leftrightarrow \hat{X}_{MAP} = \frac{-N\alpha + \sqrt{\alpha^2N^2 + 4\alpha \sum_{n=1}^Ny_n}}{2} \\
& \Leftrightarrow \hat{X}_{MAP} = \frac{-N\alpha + \alpha N \sqrt{1 + \frac{4}{\alpha N^2} \sum_{n=1}^Ny_n}}{2}
\end{align*}
\item Si $\alpha \rightarrow +\infty$,
\begin{align*}
\hat{X}_{MAP} & \approx \frac{-N\alpha + \alpha N (1 + \frac{1}{2}\frac{4}{\alpha N^2} \sum_{n=1}^Ny_n}){2} \\
\hat{X}_{MAP} & \approx \frac{\sum_{n=1}^NY_n}{N} = \hat{X}_{MV}
\end{align*}
On n'a pas d'a priori sur X, on n'a que les observations.\\
Si $\alpha \rightarrow 0$, $m_X$ et $\sigma_X \rightarrow 0$ : $\hat{X}_{MAP} \rightarrow 0$.
L'a priori est fort.
\end{enumerate}
\end{document}