cours-m1-eea/451-Signal_Image/Cours/chap1.tex

218 lines
6 KiB
TeX
Raw Normal View History

2019-01-29 18:57:51 +01:00
\documentclass[main.tex]{subfiles}
\begin{document}
\section{Probabilités}
\subsection{Évènement}
\begin{itemize}
\item La réalisation d'une expérience aléatoire (on ne peux pas prédire avec certitude le résultat) est un \textit{évènement} $\omega$, singleton de $\Omega$ ensembles de tous les évènements.
\begin{exemple}[jet de dé]
aux évènements ``Tirer 1, ... ,6 `` on associe $\Omega={\omega_1,...\omega_6}$
\end{exemple}
\item $\mathcal{E} $est une tribu (ou $\sigma$-algèbre) de $\Omega$, tel que:
\begin{itemize}
\item $\Omega \in \mathcal{E}$
\item $\mathcal{E}$ est stable par union , intersection et complémentarité.
\end{itemize}
\end{itemize}
\subsection{Probabilités}
\begin{defin}
On appelle probabilité :
\[
P : \begin{cases}
\mathcal{E} &\to [0,1]\\
E &\mapsto P(E)
\end{cases}
\]
tel que:
\begin{itemize}
\item $ P(\Omega) = 1 $
\item $ \forall E_i , i\in \mathbb{I} \text{ , desév disjoint 2 à 2}, \implies
P\left(\displaystyle\bigcup_{i\in\mathbb{I}}E_i\right) = \displaystyle\sum_{\mathbb{I}} P(E_i)$
\end{itemize}
\end{defin}
\pagebreak
\begin{prop}
\begin{itemize}
\item $ P(\bar{E}) = 1-P(E)$
\item $(P(\emptyset) = 0)$
\item $A \subset B \implies P(A) \leq P(B)$
\item $P(A+B) = P(A)+P(B)-P(A\cap B)$
\end{itemize}
\end{prop}
\subsection{Probabilités conditionnelles}
\begin{defin}
Soit $A$ et $B$ deux évènements. On appelle \emph{probabilité conditionnelle} la probabilité de $A$ sachant que $B$ est réalisé:
\[
P(A|B) = \frac{P(A\cap B)}{P(B)}
\]
\end{defin}
\begin{prop}[Formule de Bayès]
\[
P(A|B) = \frac{P(B|A)P(A)}{P(B)}
\]
\end{prop}
\subsection{Indépendance}
\begin{defin}
Deux évènements $A$ et $B$ sont dits \emph{indépendant} si et seulement si le fait que $A$ est réalisé n'apporte pas d'information sur la réalisaiton de $B$
\begin{align*}
& P(A|B) = P(A)\\
\iff & P(B|A) = P(B)\\
\iff & P(A\cap B) = P(A) .P(B)
\end{align*}
\end{defin}
\begin{defin}
Des évènements $(E_i)_{i\in\mathbb{I}}$ sont dits mutuellement indépendants (ou encore indépendants dans leur ensemble), si et seulement si:
\[
P\left(\displaystyle\bigcap_{i\in\mathbb{I}}E_i\right) = \displaystyle\prod_{\mathbb{I}} P(E_i)
\]
\end{defin}
\begin{prop}
L'indépendance dans son ensemble implique l'indépendance deux à deux. \\
La réciproque n'est pas forcément vraie.
\end{prop}
\section{Variable aléatoire réelle et scalaire}
On se place dans un espace probabilisé $\Omega$ donné.
\subsection{Généralité et exemple}
\begin{defin}
On appelle \emph{Variable aléatoire} (VA) :
\[
X :
\begin{cases}
\Omega \to \R \\
\omega \mapsto X(\omega)=x
\end{cases}
\]
\end{defin}
\begin{exemple}
\begin{itemize}
\item Dé à n faces (discret)
\item distance d'une flèche au centre de la cible.
\end{itemize}
\end{exemple}
\begin{prop}
Pour des variables aléatoires continues,
\[
P(X=x) = 0 , \forall x\in \R
\]
car $x$ est un point de mesure nulle.
\end{prop}
\subsection{Fonction de répartition}
\begin{defin}
On appelle fonction de répatition:
\begin{align*}
F_X(x) &= P(X\leq x) = P(X \in ]-\infty,x])\\
&=P(\{\omega \in \Omega|X(\omega)\le x \})
\end{align*}
\end{defin}
\begin{prop}
\begin{itemize}
2019-02-03 18:26:39 +01:00
\item $0 \le F_X(x) \le1$
2019-01-29 18:57:51 +01:00
\item $P(a\le X\le b) = F_X(b)-F_X(a)$
\item $F_x$ est une fonction :
\begin{itemize}
\item non décroissante
\item continue presque partout
\end{itemize}
\end{itemize}
\end{prop}
Une variable aléatoire est complétement caractérisée par sa f.d.r
\begin{rem}
Dans le cas d'une VAD , $F_X$ est en marche d'escalier.
\end{rem}
\subsection{Densité de probabilité}
\begin{defin}
On appelle \emph{densité de probabilité} la fonction :
\[
2019-02-03 18:26:39 +01:00
f_X(x) \equals_{\mathcal{D}} \deriv[F_X(x)]{x}
2019-01-29 18:57:51 +01:00
\]
Avec la dérivée généralisé au sens des distributions.
\end{defin}
\begin{prop}
\begin{itemize}
\item Les fonction de densité de probabilité et de répartition sont équivalentes pour décrire une variable aléatoire.
\item $f_X(x)\ge 0$
\item $\displaystyle \int_{-\infty}^{+\infty}f_X(x)\d x = 1$
\item $\displaystyle \int_{-\infty}^{x}f_X(\alpha)\d \alpha = F_X(x)$
\end{itemize}
\end{prop}
\begin{rem}
Pour les variables aléatoires discrètes, la ddp est une suite d'impulsion de Dirac :
\[
f_X(x) = \sum_{i\in\mathbb{I}}p_i\delta(x-x_i)
\]
\end{rem}
\begin{exemple}
\begin{itemize}
\item VAC uniforme sur $[a,b]$:
\[
f_X(x) = \frac{1}{b-a} \mathbb{1}_{[a,b]}
\]
\item VAC gaussienne :
\[
f_X(x) = \frac{1}{\sqrt{2\pi}\sigma} exp\left(\frac{-1}{2}\frac{(x-m_x)^2}{\sigma_X^2}\right)
\]
\end{itemize}
\end{exemple}
\subsection{Changement de VA}
\begin{prop}
Soit $g :
\begin{cases}
\R \to \R \\
X \mapsto g(X) = Y
\end{cases}$ une fonction homéomorphique\footnotemark \\
Alors :
\[
f_Y(y) = f_X(x) \left|\deriv[x]{y}\right| = f_X(x) \frac{1}{ \left|\deriv[y]{x}\right|}
\]
Dans le cas ou $g$ n'est pas bijective :
\[
f_Y(y) = \sum_{x_i|g(x_i)=y}^{}f_X(x) \left|\deriv[x]{y}\right|_{x=x_i}
\]
\end{prop}
\footnotetext{continue, bijective continue}
\subsection{Expérance, moment et fonction caractéristique}
\subsection{Fonction caractéristique}
\section{Couple de variable aléatoire réelles}
\subsection{Généralité}
\subsection{Fonction de répartition}
\subsection{Densité de probabilité}
\subsubsection{Espérance de la VA}
\subsection{Indépendance}
\subsection{Changement de VA}
\subsection{Espérance et moments-fonction caractéristique}
\section{Variable aléatoire vectorielle et réelles}
\subsection{Définition}
\subsection{Fonction de répartition}
\subsection{Densité de Probabilité}
\subsection{Indépendance}
\subsection{Changement de variable aléatoire}
\subsection{Espérance, moments et fonction caractéristique}
\subsection{Va Gaussienne et réelle}
\section{Extension aux VA complexes}
\end{document}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "main"
%%% End: