2019-01-29 18:57:51 +01:00
\documentclass [main.tex] { subfiles}
\begin { document}
\section { Probabilités}
\subsection { Évènement}
\begin { itemize}
\item La réalisation d'une expérience aléatoire (on ne peux pas prédire avec certitude le résultat) est un \textit { évènement} $ \omega $ , singleton de $ \Omega $ ensembles de tous les évènements.
\begin { exemple} [jet de dé]
aux évènements ``Tirer 1, ... ,6 `` on associe $ \Omega = { \omega _ 1 ,... \omega _ 6 } $
\end { exemple}
\item $ \mathcal { E } $ est une tribu (ou $ \sigma $ -algèbre) de $ \Omega $ , tel que:
\begin { itemize}
\item $ \Omega \in \mathcal { E } $
\item $ \mathcal { E } $ est stable par union , intersection et complémentarité.
\end { itemize}
\end { itemize}
\subsection { Probabilités}
\begin { defin}
On appelle probabilité :
\[
P : \begin { cases}
\mathcal { E} & \to [0,1]\\
E & \mapsto P(E)
\end { cases}
\]
tel que:
\begin { itemize}
\item $ P ( \Omega ) = 1 $
\item $ \forall E _ i , i \in \mathbb { I } \text { , desév disjoint 2 à 2 } , \implies
P\left (\displaystyle \bigcup _ { i\in \mathbb { I} } E_ i\right ) = \displaystyle \sum _ { \mathbb { I} } P(E_ i)$
\end { itemize}
\end { defin}
\pagebreak
\begin { prop}
\begin { itemize}
\item $ P ( \bar { E } ) = 1 - P ( E ) $
\item $ ( P ( \emptyset ) = 0 ) $
\item $ A \subset B \implies P ( A ) \leq P ( B ) $
\item $ P ( A + B ) = P ( A ) + P ( B ) - P ( A \cap B ) $
\end { itemize}
\end { prop}
\subsection { Probabilités conditionnelles}
\begin { defin}
Soit $ A $ et $ B $ deux évènements. On appelle \emph { probabilité conditionnelle} la probabilité de $ A $ sachant que $ B $ est réalisé:
\[
P(A|B) = \frac { P(A\cap B)} { P(B)}
\]
\end { defin}
\begin { prop} [Formule de Bayès]
\[
P(A|B) = \frac { P(B|A)P(A)} { P(B)}
\]
\end { prop}
\subsection { Indépendance}
\begin { defin}
Deux évènements $ A $ et $ B $ sont dits \emph { indépendant} si et seulement si le fait que $ A $ est réalisé n'apporte pas d'information sur la réalisaiton de $ B $
\begin { align*}
& P(A|B) = P(A)\\
\iff & P(B|A) = P(B)\\
\iff & P(A\cap B) = P(A) .P(B)
\end { align*}
\end { defin}
\begin { defin}
Des évènements $ ( E _ i ) _ { i \in \mathbb { I } } $ sont dits mutuellement indépendants (ou encore indépendants dans leur ensemble), si et seulement si:
\[
P\left (\displaystyle \bigcap _ { i\in \mathbb { I} } E_ i\right ) = \displaystyle \prod _ { \mathbb { I} } P(E_ i)
\]
\end { defin}
\begin { prop}
L'indépendance dans son ensemble implique l'indépendance deux à deux. \\
La réciproque n'est pas forcément vraie.
\end { prop}
\section { Variable aléatoire réelle et scalaire}
On se place dans un espace probabilisé $ \Omega $ donné.
\subsection { Généralité et exemple}
\begin { defin}
On appelle \emph { Variable aléatoire} (VA) :
\[
X :
\begin { cases}
\Omega \to \R \\
\omega \mapsto X(\omega )=x
\end { cases}
\]
\end { defin}
\begin { exemple}
\begin { itemize}
\item Dé à n faces (discret)
\item distance d'une flèche au centre de la cible.
\end { itemize}
\end { exemple}
\begin { prop}
Pour des variables aléatoires continues,
\[
P(X=x) = 0 , \forall x\in \R
\]
car $ x $ est un point de mesure nulle.
\end { prop}
\subsection { Fonction de répartition}
\begin { defin}
On appelle fonction de répatition:
\begin { align*}
F_ X(x) & = P(X\leq x) = P(X \in ]-\infty ,x])\\
& =P(\{ \omega \in \Omega |X(\omega )\le x \} )
\end { align*}
\end { defin}
\begin { prop}
\begin { itemize}
2019-02-03 18:26:39 +01:00
\item $ 0 \le F _ X ( x ) \le 1 $
2019-01-29 18:57:51 +01:00
\item $ P ( a \le X \le b ) = F _ X ( b ) - F _ X ( a ) $
\item $ F _ x $ est une fonction :
\begin { itemize}
\item non décroissante
\item continue presque partout
\end { itemize}
\end { itemize}
\end { prop}
Une variable aléatoire est complétement caractérisée par sa f.d.r
\begin { rem}
Dans le cas d'une VAD , $ F _ X $ est en marche d'escalier.
\end { rem}
\subsection { Densité de probabilité}
\begin { defin}
On appelle \emph { densité de probabilité} la fonction :
\[
2019-02-03 18:26:39 +01:00
f_ X(x) \equals _ { \mathcal { D} } \deriv [F_X(x)] { x}
2019-01-29 18:57:51 +01:00
\]
Avec la dérivée généralisé au sens des distributions.
\end { defin}
\begin { prop}
\begin { itemize}
\item Les fonction de densité de probabilité et de répartition sont équivalentes pour décrire une variable aléatoire.
\item $ f _ X ( x ) \ge 0 $
\item $ \displaystyle \int _ { - \infty } ^ { + \infty } f _ X ( x ) \d x = 1 $
\item $ \displaystyle \int _ { - \infty } ^ { x } f _ X ( \alpha ) \d \alpha = F _ X ( x ) $
\end { itemize}
\end { prop}
\begin { rem}
Pour les variables aléatoires discrètes, la ddp est une suite d'impulsion de Dirac :
\[
f_ X(x) = \sum _ { i\in \mathbb { I} } p_ i\delta (x-x_ i)
\]
\end { rem}
\begin { exemple}
\begin { itemize}
\item VAC uniforme sur $ [ a,b ] $ :
\[
f_ X(x) = \frac { 1} { b-a} \mathbb { 1} _ { [a,b]}
\]
\item VAC gaussienne :
\[
f_ X(x) = \frac { 1} { \sqrt { 2\pi } \sigma } exp\left (\frac { -1} { 2} \frac { (x-m_ x)^ 2} { \sigma _ X^ 2} \right )
\]
\end { itemize}
\end { exemple}
\subsection { Changement de VA}
\begin { prop}
Soit $ g :
\begin { cases}
\R \to \R \\
X \mapsto g(X) = Y
\end { cases} $ une fonction homéomorphique \footnotemark \\
Alors :
\[
f_ Y(y) = f_ X(x) \left |\deriv [x] { y} \right | = f_ X(x) \frac { 1} { \left |\deriv [y] { x} \right |}
\]
Dans le cas ou $ g $ n'est pas bijective :
\[
f_ Y(y) = \sum _ { x_ i|g(x_ i)=y} ^ { } f_ X(x) \left |\deriv [x] { y} \right |_ { x=x_ i}
\]
\end { prop}
\footnotetext { continue, bijective continue}
\subsection { Expérance, moment et fonction caractéristique}
2019-03-11 08:32:43 +01:00
\begin { defin}
pour $ g \R \to \C ^ p $
On appelle \emph { espérance} d'une variable aléatoire la grandeur:
\[
E(g(X)) = \int _ { \R } ^ { } g(x)f_ X(x)\d x
\]
Dans le cas discret on a:
\[
E(g(X)) = \sum _ { \mathbb { I} } ^ { } g(x_ i)P(X=x_ i)
\]
\end { defin}
\begin { prop}
L'espérance est linéaire (sous réserve d'existance):
\begin { itemize}
\item $ E [ c ] = c $
\item $ E [ cg ( x ) ] = cE [ g ( x ) ] $
\item $ E [ g ( x ) + h ( x ) ] = E [ g ( x ) ] + E [ h ( y ) ] $
\end { itemize}
\end { prop}
\begin { rem}
On note aussi $ E [ X ] = m _ X = m $ ``moyenne de la variable aléatoire''. Si $ m $ = 0 on dit que la VA est centrée.
\end { rem}
2019-01-29 18:57:51 +01:00
2019-03-11 08:32:43 +01:00
\begin { defin}
On appelle \emph { momemt d'ordre $ k $ } :
\[
m_ k = E[X^ k]
\]
Le \emph { moment centré d'ordre $ k $ :}
\[
m_ k = E[(X-m_ X)^ k]
\]
2019-01-29 18:57:51 +01:00
2019-03-11 08:32:43 +01:00
Le moment $ \mu _ 2 $ est aussi appelé la \emph { variance}
\end { defin}
\begin { rem}
on note $ \sigma _ x = \sqrt { v _ x } $ l'écart type de X. Il mesure la dispersion autour de $ m _ x $ .
On défini la variable centrée réduite associée à $ X $ :
\[
X_ r = \frac { X-m_ X} { \sigma _ X}
\]
\end { rem}
2019-01-29 18:57:51 +01:00
\subsection { Fonction caractéristique}
2019-03-11 08:32:43 +01:00
\begin { defin}
On appelle fonction caractéristique:
\[
\phi _ X(u) = E[exp(juX)] = \int _ { -\infty } ^ { +\infty }
\]
\end { defin}
\begin { prop}
\begin { itemize}
\item $ \phi _ X ( u ) $ existe toujours $ | \phi _ X ( u ) | \le \phi _ X ( 0 ) = 1 $
\item Symétrie hermitienne
\item $ \phi _ X ( u ) $ est continue même pour des VA discrètes
\item On appelle 2ème fonction de répartition $ \Psi _ X ( u ) = \ln ( \phi _ X ( u ) ) $
\item \[
m_ k = (-j)^ k\left .\deriv [^{k}\phi_X(u)] { u^ k} \right |_ { u=0}
\]
\end { itemize}
\end { prop}
2019-01-29 18:57:51 +01:00
\section { Couple de variable aléatoire réelles}
\subsection { Généralité}
2019-03-11 08:32:43 +01:00
\begin { defin}
Un couple de variable aléatoire est défini comme:
\[
Z
\begin { cases}
\Omega \to \R ^ 2\\
\omega \mapsto Z(\omega ) = \vect { X(\omega )\\ Y{ \omega } }
\end { cases}
\]
On défini également:
\[
Z^ { -1} : \mathcal { D} \mapsto Z^ { -1} (\mathcal { D} ) = E_ D \subset \mathcal { E}
\]
\end { defin}
2019-01-29 18:57:51 +01:00
\subsection { Fonction de répartition}
2019-03-11 08:32:43 +01:00
\begin { defin}
\begin { itemize}
\item fonction de répartition conjointe:
\begin { align*}
P(X<x;Y<y) & =F_ { XY} (x,y)\\
& =P((x,y)\in \mathcal { D} )\\
& =F_ Z(z)
\end { align*}
\item fonction de répartition marginale
\begin { align*}
F_ { X} (x)=P(X<x) & = F_ { XY} (x,+\infty )\\
& =P((x,y)\in \mathcal { D} _ X)
\end { align*}
\end { itemize}
\end { defin}
\begin { figure} [H]
\centering
\begin { tikzpicture}
\begin { scope}
\draw [-latex] (-1,0) -- (4.1,0);
\draw [-latex] (0,-1) -- (0,4.1);
\fill [pattern= north east lines] (2,-1) rectangle (4,4);
\fill [pattern= north east lines] (-1,2) rectangle (4,4);
\draw (-1,2) -- (4,2);
\draw (2,-1) -- (2,4);
\node at (1,1) { $ \mathcal { D } _ { xy } $ } ;
\end { scope}
\begin { scope} [shift={ (6,0)} ]
\draw [-latex] (-1,0) -- (4.1,0);
\draw [-latex] (0,-1) -- (0,4.1);
\fill [pattern= north east lines] (2,-1) rectangle (4,4);
\draw (2,-1) -- (2,4);
\node at (1,1) { $ \mathcal { D } _ x $ } ;
\end { scope}
\end { tikzpicture}
\caption { Représentation des domaines d'existence possible pour $ X,Y $ }
\end { figure}
2019-01-29 18:57:51 +01:00
\subsection { Densité de probabilité}
2019-03-11 08:32:43 +01:00
\begin { defin}
on défini la densité de probabilité conjointe:
\[
f_ { XY} = \derivp [^2F_{XY}(x,y)] { x\partial y }
\]
\end { defin}
\begin { prop}
densité de probabilité conjointe et fonction de répartition sont reliées:
\[
\int _ { -\infty } ^ { x^ -} \int _ { -\infty } ^ { y^ -} f_ { XY} (\alpha ,\beta )\d \alpha \d \alpha = F_ { XY} (x,y)
\]
et :
\[
\int _ { -\infty } ^ { x} \int _ { \R } ^ { } f_ { XY} (\alpha ,\beta )\d \beta = F_ { XY} (x,\infty ) =F_ X(x)
\]
\end { prop}
\begin { defin}
À partir de la fonction de répartion marginale on peux définir la loi marginale de $ X $ :
\[
f_ X(x) = \deriv [F_X(x)] { x} =\int _ { \R } ^ { } f_ { XY} (x,y)\d y
\]
Et alors la loi conditionelle de $ X $ sachant $ Y $ :
\[
f_ { X|Y} (x) = \frac { f_ { XY} (x,y)} { f_ { Y(y)} }
\]
\end { defin}
2019-01-29 18:57:51 +01:00
\subsection { Indépendance}
2019-03-11 08:32:43 +01:00
\begin { defin}
On dit que $ X $ et $ Y $ sont indépendant:
\begin { description}
\item [$\iff$] $ F _ { XY } ( x,y ) = F _ X ( x ) F _ Y ( y ) $
\item [$\iff$] $ f _ { XY } ( x,y ) = f _ X ( x ) f _ Y ( y ) $
\end { description}
\end { defin}
2019-01-29 18:57:51 +01:00
\subsection { Changement de VA}
2019-03-11 08:32:43 +01:00
\begin { prop}
On considère :
\[
g
\begin { cases}
\R ^ 2 \to \R ^ 2\\
Z =(X,Y) \mapsto W =(U,V)=g(X,Y)
\end { cases}
\]
Alors:
\[
f_ W(w) = f_ Z(z)|J|
\]
où :
\[
J =
\begin { pmatrix}
\displaystyle \derivp [x] { u} & \displaystyle \derivp [x] { v} \\ [1em]
\displaystyle \derivp [y] { u} & \displaystyle \derivp [y] { v}
\end { pmatrix}
\]
\end { prop}
\begin { rem}
Il est parfois plus simple de calculer:
\[
|K| =\left |
\begin { array} { cc}
\displaystyle \derivp [x] { u} & \displaystyle \derivp [x] { v} \\ [1em]
\displaystyle \derivp [y] { u} & \displaystyle \derivp [y] { v}
\end { array} \right |
\]
Au quel cas on a : $ f _ W ( w ) = f _ Z ( z ) \frac { 1 } { |K| } $
\end { rem}
2019-01-29 18:57:51 +01:00
\subsection { Espérance et moments-fonction caractéristique}
2019-03-11 08:32:43 +01:00
2019-01-29 18:57:51 +01:00
\section { Variable aléatoire vectorielle et réelles}
\subsection { Définition}
\subsection { Fonction de répartition}
\subsection { Densité de Probabilité}
\subsection { Indépendance}
\subsection { Changement de variable aléatoire}
\subsection { Espérance, moments et fonction caractéristique}
\subsection { Va Gaussienne et réelle}
\section { Extension aux VA complexes}
\end { document}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "main"
%%% End: