diff --git a/451-Signal_Image/Cours/chap1.tex b/451-Signal_Image/Cours/chap1.tex index f191a1f..95bf722 100644 --- a/451-Signal_Image/Cours/chap1.tex +++ b/451-Signal_Image/Cours/chap1.tex @@ -373,19 +373,252 @@ J = Au quel cas on a : $f_W(w) = f_Z(z)\frac{1}{|K|}$ \end{rem} \subsection{Espérance et moments-fonction caractéristique} +Dans la suite on considère la fonction suivante : +\[ + g : + \begin{cases} + \R^2 \to \C^p\\ +Z = (X,Y) \mapsto g(Z) = \vect{g_1(X,Y)\\ \vdots \\ g_p(X,Y)} + \end{cases} +\] +\begin{thm}[Théorème de transfert] + On a : + \[ + E[g(z)] = \iint_{\R^2} g(X,Y)f_{X,Y}(x,y)\d x\d y + \] +\end{thm} +\begin{prop} + Dans le cas de VA indépendante et pour $g$ séparable on a : $g(X,Y) = g_X(X)g_Y(Y)$ et alors : + \[ + E[g(X,Y)]= E[g_X(X)]E[g_Y(Y)] + \] +\end{prop} +\begin{defin} + On peux également définir les moments d'un couple de VA: + \begin{itemize} + \item Moment d'ordre 1 +\[ + E[Z] = m_Z = \vect{m_X\\m_Y} +\] +\item Moment d'ordre 2 (Matrice de corrélation) +\[ + E[ZZ^T] =E \left[\vect{X^2 & XY \\ XY & Y^2} + \right] = \vect{E[X^2] & E[XY] \\ E[XY] & E[Y^2]} = C_{ZZ} +\] +\end{itemize} +\end{defin} +\begin{rem} + $C_{ZZ}$ est symétrique positive: $ C_{ZZ}\in S_n^+(\R)$ +\end{rem} + +\begin{defin} + On appelle matrice de covaraince la matrice de corrélation des variables centrées: +\[ + \Sigma_{ZZ}= E[(X-m_x)(Y-m_Y)^T] = \vect{\sigma_x^2 & \rho_{XY}\sigma_X\sigma_Y \\ \rho_{XY}\sigma_X\sigma_Y & \sigma_Y^2} +\] +où +$\rho_{XY} = \frac{E[(X-m_X)(Y-m_y)^T]}{\sigma_x\sigma_y} =E[X_rY_r]$ est le \emph{coefficient de corrélation} +\end{defin} + + +\begin{prop} + \begin{itemize} + \item $\Sigma_{ZZ}\in S_n^+$ + \item $ \rho_{XY} < 1$ + \item $\rho_{XY}=1$ ssi $\exists a,b,c \neq 0, aX+bY+c =0$. Les variables sont alignées. + \item Si $\rho_{XY}=0$ on dit que les variables sont décoréllées + \end{itemize} +\end{prop} + +\begin{thm} + L'indépendance de 2 variables aléatoires implique leur non corrélation. + + La réciproque n'est vraie que dans le cas gaussien. +\end{thm} +\subsection{Espérance de loi conditionnelle} + +\begin{defin} + On note + \[ + E[X|Y=y] = \int_{\R}^{}xf_{X|Y=y}(x)\d x = m_X(y) + \] + \emph{l'espérance conditionnelle} de la VA $X$ sachant $Y=y$ +\end{defin} +\begin{prop} + On a : + \[ + E[m_x(y)] = E[X] + \] +\end{prop} +\begin{proof} + Directement : + \begin{align*} + E[m_X(y)]&= \int_{\R}^{}m_X(y)f(y)\d y\\ + &=\int_\R\int_\R x f_{XY}(x,y)\d x\d y\\ + &=\int_{\R^2}^{}x f_{XY}(x,y)\d x\d y\\ + &= E[X] + \end{align*} +\end{proof} \section{Variable aléatoire vectorielle et réelles} \subsection{Définition} +\begin{defin} + On généralise la notion de variable aléatoire et de couple de variable aléatoire : + \[ + X : + \begin{cases} + \Omega \to \R^n\\ + \omega \mapsto X(\omega) =\vect{X_1\\ \vdots\\ X_n} + \end{cases} + \] +\end{defin} \subsection{Fonction de répartition} +\begin{defin} + \begin{itemize} + \item Fonction de répartition conjointe:(toutes les composantes jouent le même rôle) + \[ + F_{X_1...X_n}(x_1...x_n) = P \left(\bigcap_{i=1}^nX_i