on continue les probas

This commit is contained in:
Pierre-antoine Comby 2019-03-11 08:32:43 +01:00
parent c75e48f349
commit 410d35e95a

View file

@ -184,19 +184,197 @@ Avec la dérivée généralisé au sens des distributions.
\footnotetext{continue, bijective continue} \footnotetext{continue, bijective continue}
\subsection{Expérance, moment et fonction caractéristique} \subsection{Expérance, moment et fonction caractéristique}
\begin{defin}
pour $g \R \to\C^p$
On appelle \emph{espérance} d'une variable aléatoire la grandeur:
\[
E(g(X)) = \int_{\R}^{} g(x)f_X(x)\d x
\]
Dans le cas discret on a:
\[
E(g(X)) = \sum_{\mathbb{I}}^{}g(x_i)P(X=x_i)
\]
\end{defin}
\begin{prop}
L'espérance est linéaire (sous réserve d'existance):
\begin{itemize}
\item $E[c]=c$
\item $E[cg(x)]=cE[g(x)]$
\item $E[g(x)+h(x)] =E[g(x)]+E[h(y)]$
\end{itemize}
\end{prop}
\begin{rem}
On note aussi $E[X]=m_X = m$ ``moyenne de la variable aléatoire''. Si $m$ = 0 on dit que la VA est centrée.
\end{rem}
\begin{defin}
On appelle \emph{momemt d'ordre $k$}:
\[
m_k = E[X^k]
\]
Le \emph{moment centré d'ordre $k$ :}
\[
m_k = E[(X-m_X)^k]
\]
Le moment $\mu_2$ est aussi appelé la \emph{variance}
\end{defin}
\begin{rem}
on note $\sigma_x = \sqrt{v_x}$ l'écart type de X. Il mesure la dispersion autour de $m_x$.
On défini la variable centrée réduite associée à $X$:
\[
X_r = \frac{X-m_X}{\sigma_X}
\]
\end{rem}
\subsection{Fonction caractéristique} \subsection{Fonction caractéristique}
\begin{defin}
On appelle fonction caractéristique:
\[
\phi_X(u) = E[exp(juX)] = \int_{-\infty}^{+\infty}
\]
\end{defin}
\begin{prop}
\begin{itemize}
\item $\phi_X(u)$ existe toujours $|\phi_X(u)|\le\phi_X(0)=1$
\item Symétrie hermitienne
\item $\phi_X(u)$ est continue même pour des VA discrètes
\item On appelle 2ème fonction de répartition $\Psi_X(u)=\ln(\phi_X(u))$
\item \[
m_k = (-j)^k\left.\deriv[^{k}\phi_X(u)]{u^k}\right|_{u=0}
\]
\end{itemize}
\end{prop}
\section{Couple de variable aléatoire réelles} \section{Couple de variable aléatoire réelles}
\subsection{Généralité} \subsection{Généralité}
\begin{defin}
Un couple de variable aléatoire est défini comme:
\[
Z
\begin{cases}
\Omega \to \R^2\\
\omega \mapsto Z(\omega) = \vect{X(\omega)\\Y{\omega}}
\end{cases}
\]
On défini également:
\[
Z^{-1} : \mathcal{D} \mapsto Z^{-1}(\mathcal{D}) = E_D \subset \mathcal{E}
\]
\end{defin}
\subsection{Fonction de répartition} \subsection{Fonction de répartition}
\begin{defin}
\begin{itemize}
\item fonction de répartition conjointe:
\begin{align*}
P(X<x;Y<y) &=F_{XY}(x,y)\\
&=P((x,y)\in \mathcal{D})\\
&=F_Z(z)
\end{align*}
\item fonction de répartition marginale
\begin{align*}
F_{X}(x)=P(X<x) &= F_{XY}(x,+\infty)\\
&=P((x,y)\in\mathcal{D}_X)
\end{align*}
\end{itemize}
\end{defin}
\begin{figure}[H]
\centering
\begin{tikzpicture}
\begin{scope}
\draw[-latex] (-1,0) -- (4.1,0);
\draw[-latex] (0,-1) -- (0,4.1);
\fill[pattern= north east lines] (2,-1) rectangle (4,4);
\fill[pattern= north east lines] (-1,2) rectangle (4,4);
\draw (-1,2) -- (4,2);
\draw (2,-1) -- (2,4);
\node at (1,1) {$\mathcal{D}_{xy}$};
\end{scope}
\begin{scope}[shift={(6,0)}]
\draw[-latex] (-1,0) -- (4.1,0);
\draw[-latex] (0,-1) -- (0,4.1);
\fill[pattern= north east lines] (2,-1) rectangle (4,4);
\draw (2,-1) -- (2,4);
\node at (1,1) {$\mathcal{D}_x$};
\end{scope}
\end{tikzpicture}
\caption{Représentation des domaines d'existence possible pour $X,Y$}
\end{figure}
\subsection{Densité de probabilité} \subsection{Densité de probabilité}
\subsubsection{Espérance de la VA} \begin{defin}
on défini la densité de probabilité conjointe:
\[
f_{XY} = \derivp[^2F_{XY}(x,y)]{x\partial y }
\]
\end{defin}
\begin{prop}
densité de probabilité conjointe et fonction de répartition sont reliées:
\[
\int_{-\infty}^{x^-}\int_{-\infty}^{y^-} f_{XY}(\alpha,\beta)\d \alpha \d \alpha = F_{XY}(x,y)
\]
et :
\[
\int_{-\infty}^{x}\int_{\R}^{}f_{XY}(\alpha,\beta)\d \beta = F_{XY}(x,\infty) =F_X(x)
\]
\end{prop}
\begin{defin}
À partir de la fonction de répartion marginale on peux définir la loi marginale de $X$ :
\[
f_X(x) = \deriv[F_X(x)]{x} =\int_{\R}^{}f_{XY}(x,y)\d y
\]
Et alors la loi conditionelle de $X$ sachant $Y$:
\[
f_{X|Y}(x) = \frac{f_{XY}(x,y)}{f_{Y(y)}}
\]
\end{defin}
\subsection{Indépendance} \subsection{Indépendance}
\begin{defin}
On dit que $X$ et $Y$ sont indépendant:
\begin{description}
\item[$\iff$] $F_{XY}(x,y)=F_X(x)F_Y(y)$
\item[$\iff$] $f_{XY}(x,y)=f_X(x)f_Y(y)$
\end{description}
\end{defin}
\subsection{Changement de VA} \subsection{Changement de VA}
\begin{prop}
On considère :
\[
g
\begin{cases}
\R^2 \to \R^2\\
Z =(X,Y) \mapsto W =(U,V)=g(X,Y)
\end{cases}
\]
Alors:
\[
f_W(w) = f_Z(z)|J|
\]
où :
\[
J =
\begin{pmatrix}
\displaystyle\derivp[x]{u} & \displaystyle\derivp[x]{v}\\[1em]
\displaystyle\derivp[y]{u} & \displaystyle\derivp[y]{v}
\end{pmatrix}
\]
\end{prop}
\begin{rem}
Il est parfois plus simple de calculer:
\[
|K| =\left|
\begin{array}{cc}
\displaystyle\derivp[x]{u} & \displaystyle\derivp[x]{v}\\[1em]
\displaystyle\derivp[y]{u} & \displaystyle\derivp[y]{v}
\end{array}\right|
\]
Au quel cas on a : $f_W(w) = f_Z(z)\frac{1}{|K|}$
\end{rem}
\subsection{Espérance et moments-fonction caractéristique} \subsection{Espérance et moments-fonction caractéristique}
\section{Variable aléatoire vectorielle et réelles} \section{Variable aléatoire vectorielle et réelles}
\subsection{Définition} \subsection{Définition}
\subsection{Fonction de répartition} \subsection{Fonction de répartition}