121 lines
4.8 KiB
TeX
Executable file
121 lines
4.8 KiB
TeX
Executable file
\documentclass[main.tex]{subfiles}
|
|
\begin{document}
|
|
|
|
On considère une variable aléatoire scalaire et réelle $Y$ de densité de probabilité :
|
|
\[ f_Y(y) = \frac{1}{X}e^{-\frac{y}{X}}u(x) \]
|
|
où $u(y)$ est la fonction échelon d'Heaviside et X un paramètre réel, inconnu, positif et supposé certain dans un premier temps.
|
|
|
|
\begin{enumerate}
|
|
\item Calcul de la valeur moyenne et de l'écart type de la VA $Y$
|
|
\begin{multicols}{2}
|
|
\begin{align*}
|
|
m_Y & = E[Y] = \int_{\mathbb{R}} y f_Y(y) dy \\
|
|
& = \int_0^{\infty} y \frac{1}{X} e^{-\frac{y}{x}} dy \\
|
|
& = [y(-e^{-\frac{y}{X}})]_0^{\infty} - \int_0^{\infty} (-e^{-\frac{y}{X}}) dy \\
|
|
& = \int_0^{\infty} (-e^{-\frac{y}{X}}) dy \\
|
|
& = [-Xe^{-\frac{y}{X}}]_0^{\infty} \\
|
|
& m_Y = X \\
|
|
\intertext{De plus,}
|
|
\sigma_Y^2 & = E[(Y-m_Y)^2] \\
|
|
& = E[Y^2] - m_Y^2 \\
|
|
E[Y^2] & = \int_0^{\infty} y^2\frac{1}{X}e^{-\frac{y}{X}}dy \\
|
|
& = [y^2(-e^{-\frac{y}{X}})]_0^{\infty} + 2X\int_0^{\infty}y\frac{1}{X}e^{-\frac{y}{X}}dy \\
|
|
& = 2Xm_Y = 2X^2\\
|
|
\sigma_Y^2 & = 2X^2 - X^2 = X^2 \\
|
|
\sigma_Y & = X
|
|
\end{align*}
|
|
\end{multicols}
|
|
\[ \boxed{m_Y = \sigma_Y = X} \]
|
|
|
|
\item On considère $N$ VA $Y_n, n=1..N$ indépendantes et identiquement distribuées.
|
|
|
|
On note $(y_1,...y_N)$ les réalisations de $(Y_1,...Y_N)$.\\
|
|
|
|
Grâce au résultat précédent $m_Y = X$, on peut estimer
|
|
\[ \hat{x} = \frac{\sum_{n=1}^Ny_n}{N} \]
|
|
\[ \hat{X} = \frac{\sum_{n=1}^NY_n}{N} \]
|
|
|
|
De plus, l'estimateur est non biaisé car
|
|
\[ E[\hat{X}] = \frac{\sum_{n=1}^N E[Y_n]}{X} = X \]
|
|
|
|
\item On souhaite exprimer la ddp conjointe des VA $Y_1,...Y_N$
|
|
\begin{align*}
|
|
f_\mathbf{Y}(\mathbf{y}) & = f_{Y_1, ... Y_N}(y_1,...y_N) \\
|
|
& = \prod_ {n=1}^N f_{Y_n}(y_n) \text{ par indépendance de } Y_1,...Y_N \\
|
|
& = \frac{1}{X^N} \exp(-\frac{\sum_ {n=1}^N Y_n}{X}) u(y_1)...u(y_N)
|
|
\end{align*}
|
|
|
|
\item On utilise l'estimateur du maximum de vraisemblance
|
|
\[ \hat{x}_{MV} = \arg \max_X f_\mathbf{Y}(\mathbf{y}) \]
|
|
$\hat{x}_{MV}$ est la valeur de $x$ qui rend les valeurs $y_1,...y_N$ les plus probables.
|
|
|
|
Condition nécessaire (non suffisante) :
|
|
\begin{align*}
|
|
\frac{d f_{\mathbf{Y}} (\mathbf{y}) }{dX} |_{X = \hat{x}_{MV}} = 0 & \Leftrightarrow ...\\
|
|
& \Leftrightarrow (-\frac{N}{X} + \frac{\sum_{n=1}^N y_n}{X^2}) f_{\mathbf{Y}}(\mathbf{y}) |_{X = \hat{x}_{MV}} = 0 \\
|
|
& \Rightarrow \frac{-N}{\hat{x}_{MV}} + \frac{\sum_{n=1}^N y_n}{\hat{x}_{MV}^2} = 0 \\
|
|
& \Rightarrow \hat{x}_{MV} = \frac{\sum_{n=1}^N y_n}{N} \\
|
|
& \Rightarrow \hat{X}_{MV} = \frac{\sum_{n=1}^N Y_n}{N}
|
|
\intertext{Vérifier que c'est un maximum :}
|
|
\frac{d^2 f_{\mathbf{Y}} (\mathbf{y}) }{dX^2} > \text{ ou }& < 0 ? \\
|
|
\frac{d f_{\mathbf{Y}} (\mathbf{y}) }{dX} > 0 & \text{ pour } x\rightarrow 0^+ \\
|
|
\end{align*}
|
|
|
|
Calculons la moyenne et l'écart type de $\hat{X}_{MV}$
|
|
\begin{align*}
|
|
E[\hat{X}_{MV}] & = ... = X \\
|
|
\sigma_{MV}^2 & = E[(\hat{X}_{MV} - X)^2] \\
|
|
& = E[(\frac{\sum_{n=1}^N Y_n}{N} - \frac{NX}{N})^2] \\
|
|
& = E[(\frac{\sum_{n=1}^N (Y_n-X)}{N})^2] \\
|
|
& = \frac{1}{N^2} (\sum_{n=1}^N E[(Y_n-X)^2] + \sum_{i \neq j} E[(Y_i-X)(Y_j-X)] \\
|
|
& = \frac{NX^2}{N^2} \\
|
|
\sigma_{MV} & = \frac{X}{\sqrt{N}}
|
|
\end{align*}
|
|
|
|
\item On a beaucoup plus d'\textit{a priori} (d'informations sur X sans faire l'expérience) avec $\alpha = 1$ qu'avec $\alpha = 10$.
|
|
|
|
\begin{figure}[h!]
|
|
\centering
|
|
\begin{tikzpicture}[scale=2,samples=50,domain=0:5]
|
|
\draw[-stealth] (0,0) -- (5,0) node[right] {$x$};
|
|
\draw[-stealth] (0,0) -- (0,1.5) node[above] {$f_X(x)$};
|
|
\draw plot (\x,{exp(-\x)});
|
|
\draw[dashed] plot (\x,{0.1*exp(-\x*0.1)});
|
|
\end{tikzpicture}
|
|
\caption{Tracé de $f_X(x)$ pour $\alpha=1$ (--) et $\alpha=10$ (- -)}
|
|
\end{figure}
|
|
|
|
La courbe pour $\alpha=10$ est beaucoup plus étalée : \[ \sigma_{X,\alpha = 1} < \sigma_{X,\alpha = 10} \]
|
|
|
|
|
|
|
|
\item $\hat{x}_{MAP} = \arg \max_X f_{X/\mathbf{Y} = \mathbf{y}} (x) $
|
|
|
|
Or,
|
|
\begin{align*}
|
|
f_{X/\mathbf{Y} = \mathbf{y}} (x) & = f_{\mathbf{Y}, X = x} (\mathbf{y}) \frac{f_X(x)}{f_{\mathbf{Y}}(\mathbf{y})} \\
|
|
& = \prod_{n=1}^N f_{Y_i,X=x(y_i)}\frac{f_X(x)}{f_{\mathbf{Y}}(\mathbf{y})} \\
|
|
& = g(x)u(y_1)...u(y_N)\frac{1}{f_{\mathbf{Y}}(\mathbf{y})}
|
|
\intertext{Ainsi,}
|
|
\hat{x}_{MAP} & = \arg \max_X f_{X/\mathbf{Y} =\mathbf{y}} (x) = \arg \max g(x)
|
|
\end{align*}
|
|
|
|
Condition nécessaire :
|
|
\begin{align*}
|
|
\frac{dg(x)}{dx}|_{x=\hat{X}_{MAP}} = 0 & \Leftrightarrow \hat{X}_{MAP} = \frac{-N\alpha + \sqrt{\alpha^2N^2 + 4\alpha \sum_{n=1}^Ny_n}}{2} \\
|
|
& \Leftrightarrow \hat{X}_{MAP} = \frac{-N\alpha + \alpha N \sqrt{1 + \frac{4}{\alpha N^2} \sum_{n=1}^Ny_n}}{2}
|
|
\end{align*}
|
|
|
|
\item Si $\alpha \rightarrow +\infty$,
|
|
\begin{align*}
|
|
\hat{X}_{MAP} & \approx \frac{-N\alpha + \alpha N (1 + \frac{1}{2}\frac{4}{\alpha N^2} \sum_{n=1}^Ny_n}){2} \\
|
|
\hat{X}_{MAP} & \approx \frac{\sum_{n=1}^NY_n}{N} = \hat{X}_{MV}
|
|
\end{align*}
|
|
On n'a pas d'a priori sur X, on n'a que les observations.\\
|
|
|
|
|
|
Si $\alpha \rightarrow 0$, $m_X$ et $\sigma_X \rightarrow 0$ : $\hat{X}_{MAP} \rightarrow 0$.
|
|
|
|
L'a priori est fort.
|
|
\end{enumerate}
|
|
\end{document}
|