From 410d35e95a1a8ddf3fba099d8c2879de36722a56 Mon Sep 17 00:00:00 2001
From: Pierre-antoine Comby <comby@crans.org>
Date: Mon, 11 Mar 2019 08:32:43 +0100
Subject: [PATCH] on continue les probas

---
 451-Signal_Image/Cours/chap1.tex | 184 ++++++++++++++++++++++++++++++-
 1 file changed, 181 insertions(+), 3 deletions(-)

diff --git a/451-Signal_Image/Cours/chap1.tex b/451-Signal_Image/Cours/chap1.tex
index 47b3b8b..f191a1f 100644
--- a/451-Signal_Image/Cours/chap1.tex
+++ b/451-Signal_Image/Cours/chap1.tex
@@ -184,19 +184,197 @@ Avec la dérivée généralisé au sens des distributions.
 \footnotetext{continue, bijective continue}
 
 \subsection{Expérance, moment et fonction caractéristique}
+\begin{defin}
+  pour $g \R \to\C^p$
+  On appelle \emph{espérance} d'une variable aléatoire la grandeur:
+  \[
+    E(g(X)) = \int_{\R}^{} g(x)f_X(x)\d x
+  \]
+Dans le cas discret on a:
+\[
+  E(g(X)) = \sum_{\mathbb{I}}^{}g(x_i)P(X=x_i)
+\]
+\end{defin}
+\begin{prop}
+  L'espérance est linéaire (sous réserve d'existance):
+  \begin{itemize}
+  \item $E[c]=c$
+  \item $E[cg(x)]=cE[g(x)]$
+  \item $E[g(x)+h(x)] =E[g(x)]+E[h(y)]$
+  \end{itemize}
+\end{prop}
+\begin{rem}
+  On note aussi $E[X]=m_X = m$ ``moyenne de la variable aléatoire''. Si $m$ = 0 on dit que la VA est centrée.
+\end{rem}
 
+\begin{defin}
+  On appelle \emph{momemt d'ordre $k$}:
+  \[
+    m_k = E[X^k]
+  \]
+Le \emph{moment centré d'ordre $k$ :}
+  \[
+    m_k = E[(X-m_X)^k]
+  \]
 
-
-
+Le moment $\mu_2$ est aussi appelé la \emph{variance}
+\end{defin}
+\begin{rem}
+  on note $\sigma_x = \sqrt{v_x}$ l'écart type de X. Il mesure la dispersion autour de $m_x$.
+On défini la variable centrée réduite associée à $X$:
+\[
+  X_r = \frac{X-m_X}{\sigma_X}
+\]
+\end{rem}
 \subsection{Fonction caractéristique}
+
+\begin{defin}
+  On appelle fonction caractéristique:
+\[
+  \phi_X(u) = E[exp(juX)] = \int_{-\infty}^{+\infty}
+\]
+\end{defin}
+\begin{prop}
+  \begin{itemize}
+  \item $\phi_X(u)$ existe toujours $|\phi_X(u)|\le\phi_X(0)=1$
+  \item Symétrie hermitienne
+  \item $\phi_X(u)$ est continue même pour des VA discrètes
+  \item On appelle 2ème fonction de répartition $\Psi_X(u)=\ln(\phi_X(u))$
+  \item \[
+      m_k = (-j)^k\left.\deriv[^{k}\phi_X(u)]{u^k}\right|_{u=0}
+    \]
+  \end{itemize}
+\end{prop}
 \section{Couple de variable aléatoire réelles}
 \subsection{Généralité}
+\begin{defin}
+  Un couple de variable aléatoire est défini comme:
+  \[
+    Z
+    \begin{cases}
+      \Omega \to \R^2\\
+      \omega \mapsto Z(\omega) = \vect{X(\omega)\\Y{\omega}}
+    \end{cases}
+  \]
+  On défini également:
+  \[
+    Z^{-1} : \mathcal{D} \mapsto Z^{-1}(\mathcal{D}) = E_D \subset \mathcal{E}
+  \]
+\end{defin}
 \subsection{Fonction de répartition}
+\begin{defin}
+  \begin{itemize}
+  \item fonction de répartition conjointe:
+    \begin{align*}
+      P(X<x;Y<y) &=F_{XY}(x,y)\\
+                 &=P((x,y)\in \mathcal{D})\\
+                 &=F_Z(z)
+    \end{align*}
+  \item fonction de répartition marginale
+    \begin{align*}
+      F_{X}(x)=P(X<x) &= F_{XY}(x,+\infty)\\
+                      &=P((x,y)\in\mathcal{D}_X)
+    \end{align*}
+  \end{itemize}
+\end{defin}
+
+\begin{figure}[H]
+  \centering
+  \begin{tikzpicture}
+    \begin{scope}
+      \draw[-latex] (-1,0) -- (4.1,0);
+      \draw[-latex] (0,-1) -- (0,4.1);
+      \fill[pattern= north east lines] (2,-1) rectangle (4,4);
+      \fill[pattern= north east lines] (-1,2) rectangle (4,4);
+      \draw (-1,2) -- (4,2);
+      \draw (2,-1) -- (2,4);
+      \node at (1,1) {$\mathcal{D}_{xy}$};
+    \end{scope}
+    \begin{scope}[shift={(6,0)}]
+      \draw[-latex] (-1,0) -- (4.1,0);
+      \draw[-latex] (0,-1) -- (0,4.1);
+      \fill[pattern= north east lines] (2,-1) rectangle (4,4);
+      \draw (2,-1) -- (2,4);
+      \node at (1,1) {$\mathcal{D}_x$};
+    \end{scope}
+  \end{tikzpicture}
+  \caption{Représentation des domaines d'existence possible pour $X,Y$}
+\end{figure}
 \subsection{Densité de probabilité}
-\subsubsection{Espérance de la VA}
+\begin{defin}
+  on défini la densité de probabilité conjointe:
+  \[
+    f_{XY} = \derivp[^2F_{XY}(x,y)]{x\partial y }
+  \]
+\end{defin}
+
+\begin{prop}
+  densité de probabilité conjointe et fonction de répartition sont reliées:
+  \[
+    \int_{-\infty}^{x^-}\int_{-\infty}^{y^-} f_{XY}(\alpha,\beta)\d \alpha \d \alpha = F_{XY}(x,y)
+  \]
+
+  et :
+  \[
+    \int_{-\infty}^{x}\int_{\R}^{}f_{XY}(\alpha,\beta)\d \beta = F_{XY}(x,\infty) =F_X(x)
+  \]
+\end{prop}
+\begin{defin}
+  À partir de la fonction de répartion  marginale on peux définir la loi marginale de $X$ :
+  \[
+    f_X(x) = \deriv[F_X(x)]{x} =\int_{\R}^{}f_{XY}(x,y)\d y
+  \]
+  Et alors la loi  conditionelle de $X$ sachant $Y$:
+  \[
+    f_{X|Y}(x) = \frac{f_{XY}(x,y)}{f_{Y(y)}}
+  \]
+\end{defin}
+
 \subsection{Indépendance}
+\begin{defin}
+  On dit que $X$ et $Y$ sont indépendant:
+  \begin{description}
+  \item[$\iff$] $F_{XY}(x,y)=F_X(x)F_Y(y)$
+  \item[$\iff$] $f_{XY}(x,y)=f_X(x)f_Y(y)$
+  \end{description}
+\end{defin}
 \subsection{Changement de VA}
+\begin{prop}
+  On considère :
+  \[
+    g
+    \begin{cases}
+      \R^2 \to \R^2\\
+      Z =(X,Y) \mapsto W =(U,V)=g(X,Y)
+    \end{cases}
+  \]
+  Alors:
+\[
+  f_W(w) = f_Z(z)|J|
+\]
+où :
+\[
+J =
+\begin{pmatrix}
+  \displaystyle\derivp[x]{u} & \displaystyle\derivp[x]{v}\\[1em]
+  \displaystyle\derivp[y]{u} & \displaystyle\derivp[y]{v}
+\end{pmatrix}
+\]
+\end{prop}
+\begin{rem}
+  Il est parfois plus simple de calculer:
+  \[
+|K| =\left|
+\begin{array}{cc}
+  \displaystyle\derivp[x]{u} & \displaystyle\derivp[x]{v}\\[1em]
+  \displaystyle\derivp[y]{u} & \displaystyle\derivp[y]{v}
+\end{array}\right|
+\]
+Au quel cas on a : $f_W(w) = f_Z(z)\frac{1}{|K|}$
+\end{rem}
 \subsection{Espérance et moments-fonction caractéristique}
+
+
 \section{Variable aléatoire vectorielle et réelles}
 \subsection{Définition}
 \subsection{Fonction de répartition}