\documentclass[main.tex]{subfiles} \begin{document} \section{Probabilités} \subsection{Évènement} \begin{itemize} \item La réalisation d'une expérience aléatoire (on ne peux pas prédire avec certitude le résultat) est un \textit{évènement} $\omega$, singleton de $\Omega$ ensembles de tous les évènements. \begin{exemple}[jet de dé] aux évènements ``Tirer 1, ... ,6 `` on associe $\Omega={\omega_1,...\omega_6}$ \end{exemple} \item $\mathcal{E} $est une tribu (ou $\sigma$-algèbre) de $\Omega$, tel que: \begin{itemize} \item $\Omega \in \mathcal{E}$ \item $\mathcal{E}$ est stable par union , intersection et complémentarité. \end{itemize} \end{itemize} \subsection{Probabilités} \begin{defin} On appelle probabilité : \[ P : \begin{cases} \mathcal{E} &\to [0,1]\\ E &\mapsto P(E) \end{cases} \] tel que: \begin{itemize} \item $ P(\Omega) = 1 $ \item $ \forall E_i , i\in \mathbb{I} \text{ , desév disjoint 2 à 2}, \implies P\left(\displaystyle\bigcup_{i\in\mathbb{I}}E_i\right) = \displaystyle\sum_{\mathbb{I}} P(E_i)$ \end{itemize} \end{defin} \pagebreak \begin{prop} \begin{itemize} \item $ P(\bar{E}) = 1-P(E)$ \item $(P(\emptyset) = 0)$ \item $A \subset B \implies P(A) \leq P(B)$ \item $P(A+B) = P(A)+P(B)-P(A\cap B)$ \end{itemize} \end{prop} \subsection{Probabilités conditionnelles} \begin{defin} Soit $A$ et $B$ deux évènements. On appelle \emph{probabilité conditionnelle} la probabilité de $A$ sachant que $B$ est réalisé: \[ P(A|B) = \frac{P(A\cap B)}{P(B)} \] \end{defin} \begin{prop}[Formule de Bayès] \[ P(A|B) = \frac{P(B|A)P(A)}{P(B)} \] \end{prop} \subsection{Indépendance} \begin{defin} Deux évènements $A$ et $B$ sont dits \emph{indépendant} si et seulement si le fait que $A$ est réalisé n'apporte pas d'information sur la réalisaiton de $B$ \begin{align*} & P(A|B) = P(A)\\ \iff & P(B|A) = P(B)\\ \iff & P(A\cap B) = P(A) .P(B) \end{align*} \end{defin} \begin{defin} Des évènements $(E_i)_{i\in\mathbb{I}}$ sont dits mutuellement indépendants (ou encore indépendants dans leur ensemble), si et seulement si: \[ P\left(\displaystyle\bigcap_{i\in\mathbb{I}}E_i\right) = \displaystyle\prod_{\mathbb{I}} P(E_i) \] \end{defin} \begin{prop} L'indépendance dans son ensemble implique l'indépendance deux à deux. \\ La réciproque n'est pas forcément vraie. \end{prop} \section{Variable aléatoire réelle et scalaire} On se place dans un espace probabilisé $\Omega$ donné. \subsection{Généralité et exemple} \begin{defin} On appelle \emph{Variable aléatoire} (VA) : \[ X : \begin{cases} \Omega \to \R \\ \omega \mapsto X(\omega)=x \end{cases} \] \end{defin} \begin{exemple} \begin{itemize} \item Dé à n faces (discret) \item distance d'une flèche au centre de la cible. \end{itemize} \end{exemple} \begin{prop} Pour des variables aléatoires continues, \[ P(X=x) = 0 , \forall x\in \R \] car $x$ est un point de mesure nulle. \end{prop} \subsection{Fonction de répartition} \begin{defin} On appelle fonction de répatition: \begin{align*} F_X(x) &= P(X\leq x) = P(X \in ]-\infty,x])\\ &=P(\{\omega \in \Omega|X(\omega)\le x \}) \end{align*} \end{defin} \begin{prop} \begin{itemize} \item $0 \le F_X(x) \le1$ \item $P(a\le X\le b) = F_X(b)-F_X(a)$ \item $F_x$ est une fonction : \begin{itemize} \item non décroissante \item continue presque partout \end{itemize} \end{itemize} \end{prop} Une variable aléatoire est complétement caractérisée par sa f.d.r \begin{rem} Dans le cas d'une VAD , $F_X$ est en marche d'escalier. \end{rem} \subsection{Densité de probabilité} \begin{defin} On appelle \emph{densité de probabilité} la fonction : \[ f_X(x) \equals_{\mathcal{D}} \deriv[F_X(x)]{x} \] Avec la dérivée généralisé au sens des distributions. \end{defin} \begin{prop} \begin{itemize} \item Les fonction de densité de probabilité et de répartition sont équivalentes pour décrire une variable aléatoire. \item $f_X(x)\ge 0$ \item $\displaystyle \int_{-\infty}^{+\infty}f_X(x)\d x = 1$ \item $\displaystyle \int_{-\infty}^{x}f_X(\alpha)\d \alpha = F_X(x)$ \end{itemize} \end{prop} \begin{rem} Pour les variables aléatoires discrètes, la ddp est une suite d'impulsion de Dirac : \[ f_X(x) = \sum_{i\in\mathbb{I}}p_i\delta(x-x_i) \] \end{rem} \begin{exemple} \begin{itemize} \item VAC uniforme sur $[a,b]$: \[ f_X(x) = \frac{1}{b-a} \mathbb{1}_{[a,b]} \] \item VAC gaussienne : \[ f_X(x) = \frac{1}{\sqrt{2\pi}\sigma} exp\left(\frac{-1}{2}\frac{(x-m_x)^2}{\sigma_X^2}\right) \] \end{itemize} \end{exemple} \subsection{Changement de VA} \begin{prop} Soit $g : \begin{cases} \R \to \R \\ X \mapsto g(X) = Y \end{cases}$ une fonction homéomorphique\footnotemark \\ Alors : \[ f_Y(y) = f_X(x) \left|\deriv[x]{y}\right| = f_X(x) \frac{1}{ \left|\deriv[y]{x}\right|} \] Dans le cas ou $g$ n'est pas bijective : \[ f_Y(y) = \sum_{x_i|g(x_i)=y}^{}f_X(x) \left|\deriv[x]{y}\right|_{x=x_i} \] \end{prop} \footnotetext{continue, bijective continue} \subsection{Expérance, moment et fonction caractéristique} \begin{defin} pour $g \R \to\C^p$ On appelle \emph{espérance} d'une variable aléatoire la grandeur: \[ E(g(X)) = \int_{\R}^{} g(x)f_X(x)\d x \] Dans le cas discret on a: \[ E(g(X)) = \sum_{\mathbb{I}}^{}g(x_i)P(X=x_i) \] \end{defin} \begin{prop} L'espérance est linéaire (sous réserve d'existance): \begin{itemize} \item $E[c]=c$ \item $E[cg(x)]=cE[g(x)]$ \item $E[g(x)+h(x)] =E[g(x)]+E[h(y)]$ \end{itemize} \end{prop} \begin{rem} On note aussi $E[X]=m_X = m$ ``moyenne de la variable aléatoire''. Si $m$ = 0 on dit que la VA est centrée. \end{rem} \begin{defin} On appelle \emph{momemt d'ordre $k$}: \[ m_k = E[X^k] \] Le \emph{moment centré d'ordre $k$ :} \[ m_k = E[(X-m_X)^k] \] Le moment $\mu_2$ est aussi appelé la \emph{variance} \end{defin} \begin{rem} on note $\sigma_x = \sqrt{v_x}$ l'écart type de X. Il mesure la dispersion autour de $m_x$. On défini la variable centrée réduite associée à $X$: \[ X_r = \frac{X-m_X}{\sigma_X} \] \end{rem} \subsection{Fonction caractéristique} \begin{defin} On appelle fonction caractéristique: \[ \phi_X(u) = E[exp(juX)] = \int_{-\infty}^{+\infty} \] \end{defin} \begin{prop} \begin{itemize} \item $\phi_X(u)$ existe toujours $|\phi_X(u)|\le\phi_X(0)=1$ \item Symétrie hermitienne \item $\phi_X(u)$ est continue même pour des VA discrètes \item On appelle 2ème fonction de répartition $\Psi_X(u)=\ln(\phi_X(u))$ \item \[ m_k = (-j)^k\left.\deriv[^{k}\phi_X(u)]{u^k}\right|_{u=0} \] \end{itemize} \end{prop} \section{Couple de variable aléatoire réelles} \subsection{Généralité} \begin{defin} Un couple de variable aléatoire est défini comme: \[ Z \begin{cases} \Omega \to \R^2\\ \omega \mapsto Z(\omega) = \vect{X(\omega)\\Y{\omega}} \end{cases} \] On défini également: \[ Z^{-1} : \mathcal{D} \mapsto Z^{-1}(\mathcal{D}) = E_D \subset \mathcal{E} \] \end{defin} \subsection{Fonction de répartition} \begin{defin} \begin{itemize} \item fonction de répartition conjointe: \begin{align*} P(X