395 lines
10 KiB
TeX
395 lines
10 KiB
TeX
\documentclass[main.tex]{subfiles}
|
|
\begin{document}
|
|
\section{Probabilités}
|
|
\subsection{Évènement}
|
|
\begin{itemize}
|
|
\item La réalisation d'une expérience aléatoire (on ne peux pas prédire avec certitude le résultat) est un \textit{évènement} $\omega$, singleton de $\Omega$ ensembles de tous les évènements.
|
|
\begin{exemple}[jet de dé]
|
|
aux évènements ``Tirer 1, ... ,6 `` on associe $\Omega={\omega_1,...\omega_6}$
|
|
\end{exemple}
|
|
\item $\mathcal{E} $est une tribu (ou $\sigma$-algèbre) de $\Omega$, tel que:
|
|
\begin{itemize}
|
|
\item $\Omega \in \mathcal{E}$
|
|
\item $\mathcal{E}$ est stable par union , intersection et complémentarité.
|
|
\end{itemize}
|
|
\end{itemize}
|
|
\subsection{Probabilités}
|
|
\begin{defin}
|
|
On appelle probabilité :
|
|
\[
|
|
P : \begin{cases}
|
|
\mathcal{E} &\to [0,1]\\
|
|
E &\mapsto P(E)
|
|
\end{cases}
|
|
\]
|
|
tel que:
|
|
|
|
\begin{itemize}
|
|
\item $ P(\Omega) = 1 $
|
|
\item $ \forall E_i , i\in \mathbb{I} \text{ , desév disjoint 2 à 2}, \implies
|
|
P\left(\displaystyle\bigcup_{i\in\mathbb{I}}E_i\right) = \displaystyle\sum_{\mathbb{I}} P(E_i)$
|
|
\end{itemize}
|
|
|
|
\end{defin}
|
|
|
|
\pagebreak
|
|
\begin{prop}
|
|
\begin{itemize}
|
|
\item $ P(\bar{E}) = 1-P(E)$
|
|
\item $(P(\emptyset) = 0)$
|
|
\item $A \subset B \implies P(A) \leq P(B)$
|
|
\item $P(A+B) = P(A)+P(B)-P(A\cap B)$
|
|
\end{itemize}
|
|
\end{prop}
|
|
\subsection{Probabilités conditionnelles}
|
|
|
|
\begin{defin}
|
|
Soit $A$ et $B$ deux évènements. On appelle \emph{probabilité conditionnelle} la probabilité de $A$ sachant que $B$ est réalisé:
|
|
\[
|
|
P(A|B) = \frac{P(A\cap B)}{P(B)}
|
|
\]
|
|
\end{defin}
|
|
\begin{prop}[Formule de Bayès]
|
|
\[
|
|
P(A|B) = \frac{P(B|A)P(A)}{P(B)}
|
|
\]
|
|
\end{prop}
|
|
|
|
\subsection{Indépendance}
|
|
\begin{defin}
|
|
Deux évènements $A$ et $B$ sont dits \emph{indépendant} si et seulement si le fait que $A$ est réalisé n'apporte pas d'information sur la réalisaiton de $B$
|
|
\begin{align*}
|
|
& P(A|B) = P(A)\\
|
|
\iff & P(B|A) = P(B)\\
|
|
\iff & P(A\cap B) = P(A) .P(B)
|
|
\end{align*}
|
|
\end{defin}
|
|
\begin{defin}
|
|
Des évènements $(E_i)_{i\in\mathbb{I}}$ sont dits mutuellement indépendants (ou encore indépendants dans leur ensemble), si et seulement si:
|
|
\[
|
|
P\left(\displaystyle\bigcap_{i\in\mathbb{I}}E_i\right) = \displaystyle\prod_{\mathbb{I}} P(E_i)
|
|
\]
|
|
\end{defin}
|
|
|
|
\begin{prop}
|
|
L'indépendance dans son ensemble implique l'indépendance deux à deux. \\
|
|
La réciproque n'est pas forcément vraie.
|
|
\end{prop}
|
|
\section{Variable aléatoire réelle et scalaire}
|
|
On se place dans un espace probabilisé $\Omega$ donné.
|
|
\subsection{Généralité et exemple}
|
|
\begin{defin}
|
|
On appelle \emph{Variable aléatoire} (VA) :
|
|
\[
|
|
X :
|
|
\begin{cases}
|
|
\Omega \to \R \\
|
|
\omega \mapsto X(\omega)=x
|
|
\end{cases}
|
|
\]
|
|
\end{defin}
|
|
\begin{exemple}
|
|
\begin{itemize}
|
|
\item Dé à n faces (discret)
|
|
\item distance d'une flèche au centre de la cible.
|
|
\end{itemize}
|
|
\end{exemple}
|
|
\begin{prop}
|
|
Pour des variables aléatoires continues,
|
|
\[
|
|
P(X=x) = 0 , \forall x\in \R
|
|
\]
|
|
car $x$ est un point de mesure nulle.
|
|
\end{prop}
|
|
|
|
|
|
\subsection{Fonction de répartition}
|
|
|
|
\begin{defin}
|
|
On appelle fonction de répatition:
|
|
\begin{align*}
|
|
F_X(x) &= P(X\leq x) = P(X \in ]-\infty,x])\\
|
|
&=P(\{\omega \in \Omega|X(\omega)\le x \})
|
|
\end{align*}
|
|
\end{defin}
|
|
\begin{prop}
|
|
\begin{itemize}
|
|
\item $0 \le F_X(x) \le1$
|
|
\item $P(a\le X\le b) = F_X(b)-F_X(a)$
|
|
\item $F_x$ est une fonction :
|
|
\begin{itemize}
|
|
\item non décroissante
|
|
\item continue presque partout
|
|
\end{itemize}
|
|
\end{itemize}
|
|
\end{prop}
|
|
|
|
Une variable aléatoire est complétement caractérisée par sa f.d.r
|
|
\begin{rem}
|
|
Dans le cas d'une VAD , $F_X$ est en marche d'escalier.
|
|
\end{rem}
|
|
\subsection{Densité de probabilité}
|
|
\begin{defin}
|
|
On appelle \emph{densité de probabilité} la fonction :
|
|
\[
|
|
f_X(x) \equals_{\mathcal{D}} \deriv[F_X(x)]{x}
|
|
\]
|
|
Avec la dérivée généralisé au sens des distributions.
|
|
\end{defin}
|
|
\begin{prop}
|
|
\begin{itemize}
|
|
\item Les fonction de densité de probabilité et de répartition sont équivalentes pour décrire une variable aléatoire.
|
|
\item $f_X(x)\ge 0$
|
|
\item $\displaystyle \int_{-\infty}^{+\infty}f_X(x)\d x = 1$
|
|
\item $\displaystyle \int_{-\infty}^{x}f_X(\alpha)\d \alpha = F_X(x)$
|
|
\end{itemize}
|
|
\end{prop}
|
|
|
|
\begin{rem}
|
|
Pour les variables aléatoires discrètes, la ddp est une suite d'impulsion de Dirac :
|
|
\[
|
|
f_X(x) = \sum_{i\in\mathbb{I}}p_i\delta(x-x_i)
|
|
\]
|
|
\end{rem}
|
|
|
|
\begin{exemple}
|
|
\begin{itemize}
|
|
\item VAC uniforme sur $[a,b]$:
|
|
\[
|
|
f_X(x) = \frac{1}{b-a} \mathbb{1}_{[a,b]}
|
|
\]
|
|
\item VAC gaussienne :
|
|
\[
|
|
f_X(x) = \frac{1}{\sqrt{2\pi}\sigma} exp\left(\frac{-1}{2}\frac{(x-m_x)^2}{\sigma_X^2}\right)
|
|
\]
|
|
\end{itemize}
|
|
\end{exemple}
|
|
|
|
\subsection{Changement de VA}
|
|
\begin{prop}
|
|
Soit $g :
|
|
\begin{cases}
|
|
\R \to \R \\
|
|
X \mapsto g(X) = Y
|
|
\end{cases}$ une fonction homéomorphique\footnotemark \\
|
|
Alors :
|
|
\[
|
|
f_Y(y) = f_X(x) \left|\deriv[x]{y}\right| = f_X(x) \frac{1}{ \left|\deriv[y]{x}\right|}
|
|
\]
|
|
Dans le cas ou $g$ n'est pas bijective :
|
|
\[
|
|
f_Y(y) = \sum_{x_i|g(x_i)=y}^{}f_X(x) \left|\deriv[x]{y}\right|_{x=x_i}
|
|
\]
|
|
\end{prop}
|
|
\footnotetext{continue, bijective continue}
|
|
|
|
\subsection{Expérance, moment et fonction caractéristique}
|
|
\begin{defin}
|
|
pour $g \R \to\C^p$
|
|
On appelle \emph{espérance} d'une variable aléatoire la grandeur:
|
|
\[
|
|
E(g(X)) = \int_{\R}^{} g(x)f_X(x)\d x
|
|
\]
|
|
Dans le cas discret on a:
|
|
\[
|
|
E(g(X)) = \sum_{\mathbb{I}}^{}g(x_i)P(X=x_i)
|
|
\]
|
|
\end{defin}
|
|
\begin{prop}
|
|
L'espérance est linéaire (sous réserve d'existance):
|
|
\begin{itemize}
|
|
\item $E[c]=c$
|
|
\item $E[cg(x)]=cE[g(x)]$
|
|
\item $E[g(x)+h(x)] =E[g(x)]+E[h(y)]$
|
|
\end{itemize}
|
|
\end{prop}
|
|
\begin{rem}
|
|
On note aussi $E[X]=m_X = m$ ``moyenne de la variable aléatoire''. Si $m$ = 0 on dit que la VA est centrée.
|
|
\end{rem}
|
|
|
|
\begin{defin}
|
|
On appelle \emph{momemt d'ordre $k$}:
|
|
\[
|
|
m_k = E[X^k]
|
|
\]
|
|
Le \emph{moment centré d'ordre $k$ :}
|
|
\[
|
|
m_k = E[(X-m_X)^k]
|
|
\]
|
|
|
|
Le moment $\mu_2$ est aussi appelé la \emph{variance}
|
|
\end{defin}
|
|
\begin{rem}
|
|
on note $\sigma_x = \sqrt{v_x}$ l'écart type de X. Il mesure la dispersion autour de $m_x$.
|
|
On défini la variable centrée réduite associée à $X$:
|
|
\[
|
|
X_r = \frac{X-m_X}{\sigma_X}
|
|
\]
|
|
\end{rem}
|
|
\subsection{Fonction caractéristique}
|
|
|
|
\begin{defin}
|
|
On appelle fonction caractéristique:
|
|
\[
|
|
\phi_X(u) = E[exp(juX)] = \int_{-\infty}^{+\infty}
|
|
\]
|
|
\end{defin}
|
|
\begin{prop}
|
|
\begin{itemize}
|
|
\item $\phi_X(u)$ existe toujours $|\phi_X(u)|\le\phi_X(0)=1$
|
|
\item Symétrie hermitienne
|
|
\item $\phi_X(u)$ est continue même pour des VA discrètes
|
|
\item On appelle 2ème fonction de répartition $\Psi_X(u)=\ln(\phi_X(u))$
|
|
\item \[
|
|
m_k = (-j)^k\left.\deriv[^{k}\phi_X(u)]{u^k}\right|_{u=0}
|
|
\]
|
|
\end{itemize}
|
|
\end{prop}
|
|
\section{Couple de variable aléatoire réelles}
|
|
\subsection{Généralité}
|
|
\begin{defin}
|
|
Un couple de variable aléatoire est défini comme:
|
|
\[
|
|
Z
|
|
\begin{cases}
|
|
\Omega \to \R^2\\
|
|
\omega \mapsto Z(\omega) = \vect{X(\omega)\\Y{\omega}}
|
|
\end{cases}
|
|
\]
|
|
On défini également:
|
|
\[
|
|
Z^{-1} : \mathcal{D} \mapsto Z^{-1}(\mathcal{D}) = E_D \subset \mathcal{E}
|
|
\]
|
|
\end{defin}
|
|
\subsection{Fonction de répartition}
|
|
\begin{defin}
|
|
\begin{itemize}
|
|
\item fonction de répartition conjointe:
|
|
\begin{align*}
|
|
P(X<x;Y<y) &=F_{XY}(x,y)\\
|
|
&=P((x,y)\in \mathcal{D})\\
|
|
&=F_Z(z)
|
|
\end{align*}
|
|
\item fonction de répartition marginale
|
|
\begin{align*}
|
|
F_{X}(x)=P(X<x) &= F_{XY}(x,+\infty)\\
|
|
&=P((x,y)\in\mathcal{D}_X)
|
|
\end{align*}
|
|
\end{itemize}
|
|
\end{defin}
|
|
|
|
\begin{figure}[H]
|
|
\centering
|
|
\begin{tikzpicture}
|
|
\begin{scope}
|
|
\draw[-latex] (-1,0) -- (4.1,0);
|
|
\draw[-latex] (0,-1) -- (0,4.1);
|
|
\fill[pattern= north east lines] (2,-1) rectangle (4,4);
|
|
\fill[pattern= north east lines] (-1,2) rectangle (4,4);
|
|
\draw (-1,2) -- (4,2);
|
|
\draw (2,-1) -- (2,4);
|
|
\node at (1,1) {$\mathcal{D}_{xy}$};
|
|
\end{scope}
|
|
\begin{scope}[shift={(6,0)}]
|
|
\draw[-latex] (-1,0) -- (4.1,0);
|
|
\draw[-latex] (0,-1) -- (0,4.1);
|
|
\fill[pattern= north east lines] (2,-1) rectangle (4,4);
|
|
\draw (2,-1) -- (2,4);
|
|
\node at (1,1) {$\mathcal{D}_x$};
|
|
\end{scope}
|
|
\end{tikzpicture}
|
|
\caption{Représentation des domaines d'existence possible pour $X,Y$}
|
|
\end{figure}
|
|
\subsection{Densité de probabilité}
|
|
\begin{defin}
|
|
on défini la densité de probabilité conjointe:
|
|
\[
|
|
f_{XY} = \derivp[^2F_{XY}(x,y)]{x\partial y }
|
|
\]
|
|
\end{defin}
|
|
|
|
\begin{prop}
|
|
densité de probabilité conjointe et fonction de répartition sont reliées:
|
|
\[
|
|
\int_{-\infty}^{x^-}\int_{-\infty}^{y^-} f_{XY}(\alpha,\beta)\d \alpha \d \alpha = F_{XY}(x,y)
|
|
\]
|
|
|
|
et :
|
|
\[
|
|
\int_{-\infty}^{x}\int_{\R}^{}f_{XY}(\alpha,\beta)\d \beta = F_{XY}(x,\infty) =F_X(x)
|
|
\]
|
|
\end{prop}
|
|
\begin{defin}
|
|
À partir de la fonction de répartion marginale on peux définir la loi marginale de $X$ :
|
|
\[
|
|
f_X(x) = \deriv[F_X(x)]{x} =\int_{\R}^{}f_{XY}(x,y)\d y
|
|
\]
|
|
Et alors la loi conditionelle de $X$ sachant $Y$:
|
|
\[
|
|
f_{X|Y}(x) = \frac{f_{XY}(x,y)}{f_{Y(y)}}
|
|
\]
|
|
\end{defin}
|
|
|
|
\subsection{Indépendance}
|
|
\begin{defin}
|
|
On dit que $X$ et $Y$ sont indépendant:
|
|
\begin{description}
|
|
\item[$\iff$] $F_{XY}(x,y)=F_X(x)F_Y(y)$
|
|
\item[$\iff$] $f_{XY}(x,y)=f_X(x)f_Y(y)$
|
|
\end{description}
|
|
\end{defin}
|
|
\subsection{Changement de VA}
|
|
\begin{prop}
|
|
On considère :
|
|
\[
|
|
g
|
|
\begin{cases}
|
|
\R^2 \to \R^2\\
|
|
Z =(X,Y) \mapsto W =(U,V)=g(X,Y)
|
|
\end{cases}
|
|
\]
|
|
Alors:
|
|
\[
|
|
f_W(w) = f_Z(z)|J|
|
|
\]
|
|
où :
|
|
\[
|
|
J =
|
|
\begin{pmatrix}
|
|
\displaystyle\derivp[x]{u} & \displaystyle\derivp[x]{v}\\[1em]
|
|
\displaystyle\derivp[y]{u} & \displaystyle\derivp[y]{v}
|
|
\end{pmatrix}
|
|
\]
|
|
\end{prop}
|
|
\begin{rem}
|
|
Il est parfois plus simple de calculer:
|
|
\[
|
|
|K| =\left|
|
|
\begin{array}{cc}
|
|
\displaystyle\derivp[x]{u} & \displaystyle\derivp[x]{v}\\[1em]
|
|
\displaystyle\derivp[y]{u} & \displaystyle\derivp[y]{v}
|
|
\end{array}\right|
|
|
\]
|
|
Au quel cas on a : $f_W(w) = f_Z(z)\frac{1}{|K|}$
|
|
\end{rem}
|
|
\subsection{Espérance et moments-fonction caractéristique}
|
|
|
|
|
|
\section{Variable aléatoire vectorielle et réelles}
|
|
\subsection{Définition}
|
|
\subsection{Fonction de répartition}
|
|
\subsection{Densité de Probabilité}
|
|
\subsection{Indépendance}
|
|
\subsection{Changement de variable aléatoire}
|
|
\subsection{Espérance, moments et fonction caractéristique}
|
|
\subsection{Va Gaussienne et réelle}
|
|
\section{Extension aux VA complexes}
|
|
|
|
|
|
|
|
\end{document}
|
|
|
|
%%% Local Variables:
|
|
%%% mode: latex
|
|
%%% TeX-master: "main"
|
|
%%% End:
|