Soit $(\Omega,\mathcal{E},P)$ un espace probabilisé.
Une famille/suite de VA indexé par le temps est un \emph{signal aléatoire}$\in\C^n$ noté : $X_t(\omega) ~ \forall t\in\R$ (ou $X_n(\omega) ~ \forall n \in\Z$)
\end{defin}
En ptratique on s'interesse àdes des signaux de dimension 1.
\paragraph{Rappel:} on appelle trajectoire la réalisation / acquisition d'un signal. il existe deux types de moyenne possible:
\begin{itemize}
\item temporelle, idem que celle des signaux déterministes
\item Statistique, ideme que pour les VA.
\end{itemize}
\begin{exemple}Soit le SA suivant:
$X(t,\omega)=A \sin(2\pi f_0 t)$ où $A$ est une variable aléatoire , (ici qui suit une loi uniforme).
Alors une réalisation de ce SA est $x(t)=a\sin(2\pi f_0 t)$.
\begin{itemize}
\item$\overline{x(t,\omega)}=0= m_x$ et $\overline{x^22(t,\omega)}=\frac{a^2}{2}$
On dit également que les Les moments temporels dépendent de la trajectoire.
Si $y=x$ on parle d'autocorrélation. De plus $C_{xx}^p(0)$ est la \emph{puissance de $x$}.
\end{rem}
\subsection{Ergodicité}
\begin{defin}
\begin{itemize}
\item Un processus est \emph{ergodique au sens stricte}
si et seulement si toutes les moyennes temporelles sont indépendantes de la trajecoire considérée.
\item
Un processus est ergodique à l'ordre $n$ si et seulement si tous les moments jusqu'à l'ordre de $n$ sont indépendant de la trajectoire considéré.
Les moments temporel d'un signal ergodique ne sont pas des variables aléatoires.
\end{itemize}
\end{defin}
\begin{rem}
Souvent $n=2$ Pour 2 SA on parle d'ergodicité dans leur ensemble.
\end{rem}
\subsection{Moyenne statistique}
On considère les signaux aléatoire à des instants particuliers, fixé.
\begin{rem}
En fixant le temps on peux définir les fonctions de répartition et la densité de probabilité d'un signal aléatoire. Alors on peux exprimer les moments statistiques de ses signaux temporels:
\end{rem}
\begin{defin}
On défini la moyenne statistique (moment d'ordre 1):
\[
m_X(t) = E[X(t,\omega)] = \int_{\R}^{}x f_X(x,t) \d x
\]
et la fonction d'intercorrélation statistique (moment d'ordre 2):
\[
\gamma_{xy}(t_1,t_2) =E[X(t_1,\omega)y^{*}(t_2,\omega)] = \iint xy^{*}f_{x,y,t_1,t_2}\d x\d y
\]
Il en est de meme dans le cas discret.
\end{defin}
\subsection{Stationnarité}
\begin{defin}
\begin{itemize}
\item Un processus aléatoire est\emph{ stationanaire au sens strict} ssi
toutes ses caractéristiques statistiques sont invariantes par tout
\item Un processus aléatoire est stationnaire au sens large /au second ordre ssi ses moments d'ordre 1 et 2 sont invariants par tout changement d'origine des temps.
Ici on s'interesse la répartition de la puissance d'un SA en fonction de la fréquence (idem que la DSE pour des signaux à énergie finie). On se restreint à des SAS du 2nd ordre.
\paragraph{Notation} :
$x(t,\omega)$ représente le SA ou une des ses réalisation \\
$X(f)$ représente la TF d'un signal $x$ sous réserve d'existence.
\begin{thm}[Wiener-Kintchine]
\[
TF[\gamma_{xx}]=\Gamma_{XX}(f) = \text{ dsp de x(t)}
très souvent on a $\gamma_{xx}(\tau)\xrightarrow[+\infty] |m_x|^2$ , ce qui signifie qu'on a aps d'effet ``mémoire'' àl'infini. Si $m_x \neq0$ la DSP comporte une raie à l'origine de valeur $m_x$.