From 410d35e95a1a8ddf3fba099d8c2879de36722a56 Mon Sep 17 00:00:00 2001 From: Pierre-antoine Comby <comby@crans.org> Date: Mon, 11 Mar 2019 08:32:43 +0100 Subject: [PATCH] on continue les probas --- 451-Signal_Image/Cours/chap1.tex | 184 ++++++++++++++++++++++++++++++- 1 file changed, 181 insertions(+), 3 deletions(-) diff --git a/451-Signal_Image/Cours/chap1.tex b/451-Signal_Image/Cours/chap1.tex index 47b3b8b..f191a1f 100644 --- a/451-Signal_Image/Cours/chap1.tex +++ b/451-Signal_Image/Cours/chap1.tex @@ -184,19 +184,197 @@ Avec la dérivée généralisé au sens des distributions. \footnotetext{continue, bijective continue} \subsection{Expérance, moment et fonction caractéristique} +\begin{defin} + pour $g \R \to\C^p$ + On appelle \emph{espérance} d'une variable aléatoire la grandeur: + \[ + E(g(X)) = \int_{\R}^{} g(x)f_X(x)\d x + \] +Dans le cas discret on a: +\[ + E(g(X)) = \sum_{\mathbb{I}}^{}g(x_i)P(X=x_i) +\] +\end{defin} +\begin{prop} + L'espérance est linéaire (sous réserve d'existance): + \begin{itemize} + \item $E[c]=c$ + \item $E[cg(x)]=cE[g(x)]$ + \item $E[g(x)+h(x)] =E[g(x)]+E[h(y)]$ + \end{itemize} +\end{prop} +\begin{rem} + On note aussi $E[X]=m_X = m$ ``moyenne de la variable aléatoire''. Si $m$ = 0 on dit que la VA est centrée. +\end{rem} +\begin{defin} + On appelle \emph{momemt d'ordre $k$}: + \[ + m_k = E[X^k] + \] +Le \emph{moment centré d'ordre $k$ :} + \[ + m_k = E[(X-m_X)^k] + \] - - +Le moment $\mu_2$ est aussi appelé la \emph{variance} +\end{defin} +\begin{rem} + on note $\sigma_x = \sqrt{v_x}$ l'écart type de X. Il mesure la dispersion autour de $m_x$. +On défini la variable centrée réduite associée à $X$: +\[ + X_r = \frac{X-m_X}{\sigma_X} +\] +\end{rem} \subsection{Fonction caractéristique} + +\begin{defin} + On appelle fonction caractéristique: +\[ + \phi_X(u) = E[exp(juX)] = \int_{-\infty}^{+\infty} +\] +\end{defin} +\begin{prop} + \begin{itemize} + \item $\phi_X(u)$ existe toujours $|\phi_X(u)|\le\phi_X(0)=1$ + \item Symétrie hermitienne + \item $\phi_X(u)$ est continue même pour des VA discrètes + \item On appelle 2ème fonction de répartition $\Psi_X(u)=\ln(\phi_X(u))$ + \item \[ + m_k = (-j)^k\left.\deriv[^{k}\phi_X(u)]{u^k}\right|_{u=0} + \] + \end{itemize} +\end{prop} \section{Couple de variable aléatoire réelles} \subsection{Généralité} +\begin{defin} + Un couple de variable aléatoire est défini comme: + \[ + Z + \begin{cases} + \Omega \to \R^2\\ + \omega \mapsto Z(\omega) = \vect{X(\omega)\\Y{\omega}} + \end{cases} + \] + On défini également: + \[ + Z^{-1} : \mathcal{D} \mapsto Z^{-1}(\mathcal{D}) = E_D \subset \mathcal{E} + \] +\end{defin} \subsection{Fonction de répartition} +\begin{defin} + \begin{itemize} + \item fonction de répartition conjointe: + \begin{align*} + P(X<x;Y<y) &=F_{XY}(x,y)\\ + &=P((x,y)\in \mathcal{D})\\ + &=F_Z(z) + \end{align*} + \item fonction de répartition marginale + \begin{align*} + F_{X}(x)=P(X<x) &= F_{XY}(x,+\infty)\\ + &=P((x,y)\in\mathcal{D}_X) + \end{align*} + \end{itemize} +\end{defin} + +\begin{figure}[H] + \centering + \begin{tikzpicture} + \begin{scope} + \draw[-latex] (-1,0) -- (4.1,0); + \draw[-latex] (0,-1) -- (0,4.1); + \fill[pattern= north east lines] (2,-1) rectangle (4,4); + \fill[pattern= north east lines] (-1,2) rectangle (4,4); + \draw (-1,2) -- (4,2); + \draw (2,-1) -- (2,4); + \node at (1,1) {$\mathcal{D}_{xy}$}; + \end{scope} + \begin{scope}[shift={(6,0)}] + \draw[-latex] (-1,0) -- (4.1,0); + \draw[-latex] (0,-1) -- (0,4.1); + \fill[pattern= north east lines] (2,-1) rectangle (4,4); + \draw (2,-1) -- (2,4); + \node at (1,1) {$\mathcal{D}_x$}; + \end{scope} + \end{tikzpicture} + \caption{Représentation des domaines d'existence possible pour $X,Y$} +\end{figure} \subsection{Densité de probabilité} -\subsubsection{Espérance de la VA} +\begin{defin} + on défini la densité de probabilité conjointe: + \[ + f_{XY} = \derivp[^2F_{XY}(x,y)]{x\partial y } + \] +\end{defin} + +\begin{prop} + densité de probabilité conjointe et fonction de répartition sont reliées: + \[ + \int_{-\infty}^{x^-}\int_{-\infty}^{y^-} f_{XY}(\alpha,\beta)\d \alpha \d \alpha = F_{XY}(x,y) + \] + + et : + \[ + \int_{-\infty}^{x}\int_{\R}^{}f_{XY}(\alpha,\beta)\d \beta = F_{XY}(x,\infty) =F_X(x) + \] +\end{prop} +\begin{defin} + À partir de la fonction de répartion marginale on peux définir la loi marginale de $X$ : + \[ + f_X(x) = \deriv[F_X(x)]{x} =\int_{\R}^{}f_{XY}(x,y)\d y + \] + Et alors la loi conditionelle de $X$ sachant $Y$: + \[ + f_{X|Y}(x) = \frac{f_{XY}(x,y)}{f_{Y(y)}} + \] +\end{defin} + \subsection{Indépendance} +\begin{defin} + On dit que $X$ et $Y$ sont indépendant: + \begin{description} + \item[$\iff$] $F_{XY}(x,y)=F_X(x)F_Y(y)$ + \item[$\iff$] $f_{XY}(x,y)=f_X(x)f_Y(y)$ + \end{description} +\end{defin} \subsection{Changement de VA} +\begin{prop} + On considère : + \[ + g + \begin{cases} + \R^2 \to \R^2\\ + Z =(X,Y) \mapsto W =(U,V)=g(X,Y) + \end{cases} + \] + Alors: +\[ + f_W(w) = f_Z(z)|J| +\] +où : +\[ +J = +\begin{pmatrix} + \displaystyle\derivp[x]{u} & \displaystyle\derivp[x]{v}\\[1em] + \displaystyle\derivp[y]{u} & \displaystyle\derivp[y]{v} +\end{pmatrix} +\] +\end{prop} +\begin{rem} + Il est parfois plus simple de calculer: + \[ +|K| =\left| +\begin{array}{cc} + \displaystyle\derivp[x]{u} & \displaystyle\derivp[x]{v}\\[1em] + \displaystyle\derivp[y]{u} & \displaystyle\derivp[y]{v} +\end{array}\right| +\] +Au quel cas on a : $f_W(w) = f_Z(z)\frac{1}{|K|}$ +\end{rem} \subsection{Espérance et moments-fonction caractéristique} + + \section{Variable aléatoire vectorielle et réelles} \subsection{Définition} \subsection{Fonction de répartition}