diff --git a/451-Signal_Image/Cours/chap1.tex b/451-Signal_Image/Cours/chap1.tex
index f191a1f..95bf722 100644
--- a/451-Signal_Image/Cours/chap1.tex
+++ b/451-Signal_Image/Cours/chap1.tex
@@ -373,19 +373,252 @@ J =
 Au quel cas on a : $f_W(w) = f_Z(z)\frac{1}{|K|}$
 \end{rem}
 \subsection{Espérance et moments-fonction caractéristique}
+Dans la suite on considère la fonction suivante :
+\[
+  g :
+  \begin{cases}
+    \R^2 \to \C^p\\
+Z = (X,Y) \mapsto g(Z) = \vect{g_1(X,Y)\\ \vdots \\ g_p(X,Y)}
+  \end{cases}
+\]
+\begin{thm}[Théorème de transfert]
+  On a :
+  \[
+    E[g(z)] = \iint_{\R^2} g(X,Y)f_{X,Y}(x,y)\d x\d y
+  \]
+\end{thm}
+\begin{prop}
+  Dans le cas de VA indépendante et  pour $g$ séparable on a : $g(X,Y) = g_X(X)g_Y(Y)$ et alors :
+  \[
+    E[g(X,Y)]= E[g_X(X)]E[g_Y(Y)]
+  \]
+\end{prop}
+\begin{defin}
+  On peux également définir les moments d'un couple de VA:
+  \begin{itemize}
+  \item Moment d'ordre 1
+\[
+  E[Z] = m_Z = \vect{m_X\\m_Y}
+\]
+\item Moment d'ordre 2 (Matrice de corrélation)
+\[
+  E[ZZ^T] =E \left[\vect{X^2 & XY \\ XY & Y^2}
+  \right] = \vect{E[X^2] & E[XY] \\ E[XY] & E[Y^2]} = C_{ZZ}
+\]
+\end{itemize}
+\end{defin}
 
+\begin{rem}
+  $C_{ZZ}$ est symétrique positive: $ C_{ZZ}\in S_n^+(\R)$
+\end{rem}
+
+\begin{defin}
+  On appelle matrice de covaraince la matrice de corrélation des variables centrées:
+\[
+  \Sigma_{ZZ}= E[(X-m_x)(Y-m_Y)^T] = \vect{\sigma_x^2 & \rho_{XY}\sigma_X\sigma_Y \\  \rho_{XY}\sigma_X\sigma_Y & \sigma_Y^2}
+\]
+où
+$\rho_{XY} = \frac{E[(X-m_X)(Y-m_y)^T]}{\sigma_x\sigma_y} =E[X_rY_r]$ est le \emph{coefficient de corrélation}
+\end{defin}
+
+
+\begin{prop}
+  \begin{itemize}
+  \item $\Sigma_{ZZ}\in S_n^+$
+  \item $ \rho_{XY} < 1$
+  \item  $\rho_{XY}=1$ ssi $\exists a,b,c \neq 0, aX+bY+c =0$. Les variables sont alignées.
+  \item Si $\rho_{XY}=0$ on dit que les variables sont décoréllées
+  \end{itemize}
+\end{prop}
+
+\begin{thm}
+  L'indépendance de 2 variables aléatoires implique leur non corrélation.
+
+  La réciproque n'est vraie que dans le cas gaussien.
+\end{thm}
+\subsection{Espérance de loi conditionnelle}
+
+\begin{defin}
+  On note
+  \[
+    E[X|Y=y] = \int_{\R}^{}xf_{X|Y=y}(x)\d x = m_X(y)
+  \]
+  \emph{l'espérance conditionnelle} de la VA $X$ sachant $Y=y$
+\end{defin}
+\begin{prop}
+  On a :
+  \[
+    E[m_x(y)] = E[X]
+  \]
+\end{prop}
+\begin{proof}
+  Directement :
+  \begin{align*}
+    E[m_X(y)]&= \int_{\R}^{}m_X(y)f(y)\d y\\
+             &=\int_\R\int_\R x f_{XY}(x,y)\d x\d y\\
+             &=\int_{\R^2}^{}x f_{XY}(x,y)\d x\d y\\
+             &= E[X]
+  \end{align*}
+\end{proof}
 
 \section{Variable aléatoire vectorielle et réelles}
 \subsection{Définition}
+\begin{defin}
+  On généralise la notion de variable aléatoire et de couple de variable aléatoire :
+  \[
+    X :
+    \begin{cases}
+      \Omega \to \R^n\\
+      \omega \mapsto X(\omega) =\vect{X_1\\ \vdots\\ X_n}
+    \end{cases}
+  \]
+\end{defin}
 \subsection{Fonction de répartition}
+\begin{defin}
+  \begin{itemize}
+  \item Fonction de répartition conjointe:(toutes les composantes jouent le même rôle)
+    \[
+      F_{X_1...X_n}(x_1...x_n) = P \left(\bigcap_{i=1}^nX_i<x_i\right)
+    \]
+    \item Fonction de répartition marginale de $X_i$:
+      \[
+        F_{X_i}=P(X_i<x_i)= P\left(X_i<x_i ; \bigcap_{j\neq i}X_j< +\infty \right)
+      \]
+  \end{itemize}
+
+Les propriétés démontrées dans le cas 2 se généralise au cas vectoriel.
+\end{defin}
 \subsection{Densité de Probabilité}
+\begin{defin}
+On défini la densité de probabilité conjointe:
+\[
+  f_X(x) = \derivp[^n]{\vec{x}} F_\vec{X}(\vec{x})
+\]
+Et alors :
+\[
+P(X\in\mathcal{D}) = \int_{\mathcal{D}}f_X(x)\d x = \iint_{\mathcal{D}} ... \int f_{\vec{X}}(\vec{x}) \d \vec{x}
+\]
+\end{defin}
+\begin{defin}
+  On généralise de même les notions de ddp margianle et conditionnelle:
+  \begin{itemize}
+  \item ddp marginale:
+    \[
+      f_{X_i}(x_i)= \frac{\d^n F_{x_i}(x_i)}{\d x_i} = \int_{\R^{n-1}}f_{\vec{X}}(\vec{x})\d x_1 ... \d x_{i-1}\d x_{i+1} ...\d x_n
+    \]
+  \item ddp conditionnelles:
+    On considère $Y$ et $Z$ de VA vectorielles:
+    \[
+      f_{\vec{Y}|\vec{Z}=\vec{z}}(\vec{y}) = \frac{f_{\vec{YZ}}(\vec{y},\vec{z})}{f_{\vec{Z}(z)}}
+    \]
+  \end{itemize}
+\end{defin}
 \subsection{Indépendance}
+\begin{thm}
+  On donne une CNS d'indépencande dans leur ensemble des VA $X_i$:
+  \[
+    F_{\vec{X}}(\vec{x})= \prod_{i=1}^{n}F_{X_i}(x_i) \iff f_{\vec{X}}(\vec{x}) = \prod_{i=1}^{n}f_{X_i}(x_i)
+  \]
+  L'indépendance dans leur ensemble implique l'indépendance 2à2.
+\end{thm}
 \subsection{Changement de variable aléatoire}
+
+\begin{prop}
+  Pour $g
+  \begin{cases}
+    \R^n \to \R^n\\
+    \vec{X} \mapsto g(\vec{X})=\vec{Y}
+  \end{cases}$ On peux définir le changement de variable:
+  \[
+    f_{\vec{Y}(\vec{y}} =f_{\vec{X}}{\vec{x}}|\vec{J}| = f_{\vec{X}}(\vec{x}) \frac{1}{|\vec{K}|}
+  \]
+  où :
+  $\vec{J} = \derivp[\vec{x}]{\vec{y}^T}=x_{i,j}$ et $K = \derivp[\vec{y}]{\vec{x}^T} =y_{j,i}$
+\end{prop}
+
 \subsection{Espérance, moments et fonction caractéristique}
+\begin{thm}[Théorème de transfert]
+  \[
+    E[g(\vec{X})] = \int_{\R^n}^{}g(\vec{X})f_{\vec{X}}(\vec{x})\d\vec{x}
+  \]
+\end{thm}
+
+\begin{defin}
+  \begin{itemize}
+  \item Moment d'ordre 1:
+    \[
+      \vec{m_x}= E[\vec{X}]
+    \]
+  \item Moment d'ordre 2: (matrice de corrélation)
+    \[
+      \vec{C_{XX}}=E[\vec{X}\vec{X}^T]\ge 0
+    \]
+  \item Moment centrée d'ordre 2: (matrice de covariance)
+    \[
+      \vec{\Sigma_{XX}} = E[(\vec{X-m_x})(\vec{Y-m_y})^T]
+    \]
+  \item Fonction caractèristique:
+    \[
+      \phi_{\vec{X}}(\vec{u})= E[e^{j\vec{u}^T\vec{X}}]
+    \]
+  \end{itemize}
+\end{defin}
 \subsection{Va Gaussienne et réelle}
+\begin{defin}
+  On dit que $X = \vec{X_1\\ \vdots\\ X_n}$ est une VA gaussienne:
+  \begin{description}
+  \item[$\iff$] $X_i$ sont gaussiens et indépendants dans leur ensembles
+  \item[$\iff$] $\sum_{i=1}^{n} \alpha_iX_i$ est une gaussienne.
+  \end{description}
+\end{defin}
+
+\renewcommand{\N}{\quad\mathcal{N}}
+\begin{prop}
+  \begin{itemize}
+  \item $\vec{X} \N \implies X_i \N$. La réciproque n'est pas vraie (cf ex 9/10 p 14 du fascicule)
+  \item $\vec{X} \N \implies $ loi conditionnelle gaussienne.
+  \item $X_i \N$ et indépendantes dans leur ensemble $\implies \vec{X} \N$.
+  \item $\vec{X} \N$ et $X_i$ indépendants 2à2 $\implies$ indépendant dans leur ensemble.
+  \item $\vec{X} \N \implies \vec{ Y =AX+B } \N$
+  \end{itemize}
+\end{prop}
 \section{Extension aux VA complexes}
+\begin{defin}
+  On généralise \emph{encore}:
+  \[
+    \vec{Z}
+    \begin{cases}
+      \Omega \to \C^p\\
+      \omega \mapsto \vec{Z}(\omega) = \vec{X}+j\vec{Y}
+    \end{cases}
+  \]
+\end{defin}
+\paragraph{Notation} : $\vec{Z}^\dagger = (\vec{Z}^{*})^T$ transposé conjugué.
 
-
+\begin{prop}
+  \begin{itemize}
+  \item Fonction de répartition:
+    \[
+      f_{\vec{Z}}(\vec{z})= P(\vec{X}<\vec{x} ; \vec{Y}< \vec{y})
+    \]
+  \item Matrice  de corrélation:
+    \[
+      \vec{C_{zz}} = E[\vec{Z}\vec{Z}^\dagger]
+    \]
+  \item Matrice de covariance:
+    \[
+      \vec{\Sigma_{ZZ}} = E[(\vec{Z-m_z})(\vec{Z-m_z})^\dagger]
+    \]
+  \item Fonction caractéristique:
+    \[
+      \phi_{\vec{Z}}(\vec{u}) = E[e^{j\vec{u}^\dagger \vec{Z}}]
+    \]
+  \item La linéarité de l'espérance donne également:
+    \[
+      E[g(\vec{Z})^*]= E[g(\vec{Z})]^*
+    \]
+  \end{itemize}
+\end{prop}
 
 \end{document}
 
diff --git a/451-Signal_Image/Cours/main.tex b/451-Signal_Image/Cours/main.tex
index 4882991..008c708 100644
--- a/451-Signal_Image/Cours/main.tex
+++ b/451-Signal_Image/Cours/main.tex
@@ -8,7 +8,7 @@
 \teacher{Cécile Durieu}
 \module{451}
 \usepackage{multicol}
-
+\renewcommand{\vec}{\mathbf}
 \begin{document}
 
 \maketitle