235 lines
9 KiB
TeX
Executable file
235 lines
9 KiB
TeX
Executable file
\documentclass[main.tex]{subfiles}
|
|
\begin{document}
|
|
|
|
\subsection*{Signal sinusoïdal à phase équirépartie}
|
|
On considère le signal aléatoire \[X_t=x(t)=E_0\sin(2\pi f_o t + \Phi) \]
|
|
|
|
$\phi$ est une variable aléatoire uniformément répartie sur $[0,2\pi[$
|
|
|
|
$E_0$, $f_0$ sont des grandeurs déterministes strictement positives.
|
|
|
|
\begin{enumerate}
|
|
\item À $t$ donné, $f_{X,t}(x,t)=f_{Xt}(x)=f_X(x,t)$
|
|
|
|
Méthode : changement de variable
|
|
\[ \Phi \rightarrow X_t = x(t) = g(\Phi) = E_0\sin(2\pi f_0t + \Phi) \]
|
|
|
|
\[f_{\Phi}(\phi) =
|
|
\left\{
|
|
\begin{array}{ll}
|
|
\frac{1}{2\pi} & \si \phi \in [0,2\pi[ \\
|
|
0 & \sinon
|
|
\end{array}
|
|
\right.
|
|
\]
|
|
|
|
$X_t = x(t) \in [-E_0,E_0]$ donc $f_{Xt}(x) = 0,$ pour tout $x$ tel que $|x| >E_0$.
|
|
|
|
Théorème de changement de variables aléatoires.
|
|
|
|
Soit $x$ tel que $|x| < E_0$
|
|
|
|
\[f_{Xt}(x) = f_X(x,t) = f_{\Phi}(\phi)|\frac{d\phi}{dx}||_{\phi,g(\phi)=x}\]
|
|
|
|
|
|
Pour tout $x\in[-E_0,E_0]$ (sauf les points où la dérivée s'annule, ensemble de mesure nulle), il y a deux points d'intersection $\phi_i\in[0,2\pi[$
|
|
|
|
\[f_X(x,t) = \sum_{i=1}^2 f_{\Phi}(\phi_i)\frac{1}{|\frac{dx}{d\phi}|}|_{\phi_i,g(\phi_i)=x} \]
|
|
|
|
\[\frac{dx}{d\phi}=E_0\cos(2\pi f_0t + \phi) \text{ donc }
|
|
|\frac{dx}{d\phi}|_{\phi=\phi_1} = |\frac{dx}{d\phi}|_{\phi=\phi_2}
|
|
\]
|
|
\[\frac{dx}{d\phi}|_{\phi=\phi_i} = \sqrt{E_0^2\cos^2(2\pi f_0t + \phi_i)}=\sqrt{E_0^2(1-\sin^2(2\pi f_0t + \phi_i))}=\sqrt{E_0^2-x^2}\]
|
|
|
|
Ainsi, on a
|
|
\[f_{X_t}(x) = f_X(x,t) =
|
|
\left\{
|
|
\begin{array}{ll}
|
|
0 \si |x| \geq E_0 \\
|
|
\frac{1}{\pi \sqrt{E_0^2-x^2}} & \sinon
|
|
\end{array}
|
|
\right.
|
|
\]
|
|
|
|
Remarque : $f_X(x,t)$ est finie en $x=\pm E_0$ car $\Phi$ VA continue et g fonction continue $\rightarrow X_t$ est une VA continue.
|
|
|
|
Pour conclure quant à la stationnarité à l'ordre un, on regarde si $E[x(t)]$ dépend du temps
|
|
|
|
Or, $E[x(t)]=\int_{\mathbb{R}} x_t f_X(x_t,t)dx_t$ et $f_X(x_t,t)$ ne dépend pas de $t$, donc la VA $x(t)$ est stationnaire à l'ordre un.
|
|
|
|
Autre méthode : fonction de répartition
|
|
|
|
$F_X(x,t = F_{X_t}(x) = P[X_t < x]$
|
|
|
|
\item
|
|
\begin{align*}
|
|
E[x(t)] & = \int_{\mathbb{R}}xf_X(x,t)dx = ... = 0 \\
|
|
\text{ ou } & = E[E_0\sin(2\pi f_0 t+\phi)] \\
|
|
& = \int_{\mathbb{R}}E_0\sin(2\pi f_0 t + \phi) f_{\phi}(\phi)d\phi \\
|
|
& = E_0 \int_0^{2\pi} \frac{1}{2\pi}\sin(2\pi f_0t + \phi) d\phi = 0 \\
|
|
\intertext{La moyenne statistique ne dépend pas de l'origine des temps : stationnarité du moment d'ordre 1.}
|
|
\overline{x(t)} & = \frac{1}{T_0} \int_{[T_0]}E_0\sin(2\pi f_0t + \phi) dt = 0
|
|
\end{align*}
|
|
|
|
La moyenne temporelle ne dépend pas de $\phi$ (de la réalisation) : ergodicité du moment d'ordre 1.
|
|
|
|
|
|
\item
|
|
\begin{align*}
|
|
E[x(t)x(t-\tau)] & = \gamma_{xx}(t,t-\tau) \\
|
|
& = E[E_0^2\sin(2\pi f_0 t + \phi) \sin(2\pi f_0 (t-\tau)+\phi) ] \\
|
|
& = \frac{E_0^2}{2} E[\cos(2\pi f_0 \tau) - \cos(4\pi f_0t - 2\pi f_0 \tau + 2\phi) ]\\
|
|
& = \frac{E_0^2}{2} \cos(2\pi f_0 \tau)
|
|
\intertext{$E[x(t)x(t-\tau)]$ ne dépend pas de l'origine des temps, donc on a $E[x(t)x(t-\tau)]=\gamma_{xx}(\tau)$ : stationnarité du moment d'ordre 2}
|
|
\overline{x(t)x(t-\tau)} & = \frac{E_0^2}{2} (\overline{\cos(2\pi f_0\tau)} - \overline{\cos(4\pi f_0 t - 2\pi f_0 \tau + 2 \phi)}) \\
|
|
& = \frac{E_0^2}{2} \cos(2\pi f_0 \tau)
|
|
\intertext{$\overline{x(t)x(t-\tau)}$ ne dépend pas de $\phi$ (de la réalisation) : ergodicité du moment d'ordre 2}
|
|
\end{align*}
|
|
|
|
On a donc ergodicité et stationnarité, à l'ordre 1 et 2.
|
|
|
|
Remarque : on a donc égalité des moments d'ordre 1 et 2 :
|
|
\[ \gamma_{xx}(\tau) = \overline{x(t)x(t-\tau)}\]
|
|
\[ \gamma_{xx}(0) = P_x = \frac{E_0^2}{2} < \infty \text{ et stationnarité du moment d'ordre 1 et 2} \longrightarrow \text{ stationnaire au sens large}\]
|
|
|
|
\item Pour calculer une DSP d'un signal stationnaire au sens large : $\Gamma_{xx}(f) = TF[\gamma_{xx}(\tau)]$
|
|
\begin{align*}
|
|
\Gamma_{xx}(f) & = TF[\gamma_{xx}(\tau)] \\
|
|
& = TF[\frac{E_0^2}{2}\cos(2\pi f_0 \tau) ] \\
|
|
& = \frac{1}{2} \frac{E_0^2}{2} (\delta(f_0-f) + \delta(f_0+f))
|
|
\end{align*}
|
|
|
|
\end{enumerate}
|
|
|
|
\subsection*{Propriétés de la fonction de corrélation}
|
|
|
|
On considère $x(t)$ un SA scalaire et stationnaire.
|
|
|
|
\begin{enumerate}
|
|
\item
|
|
\begin{align*}
|
|
m_{x(t)} & = m_x \text{ par stationnarité} \\
|
|
& = E[x(t)] \\
|
|
\gamma_{xx}(\tau) & = E[x(t)x^*(t-\tau)] \\
|
|
\Gamma_{xx}(f) & = TF[\gamma_{xx}(\tau)](f)
|
|
\end{align*}
|
|
|
|
\item
|
|
\begin{align*}
|
|
P_x & = E[|x(t)|^2] \\
|
|
& = E[x(t)x^*(t)] \\
|
|
& = \gamma_{xx}(0) \\
|
|
\gamma_{xx}(\tau) & = TF^{-1}[\Gamma_{xx}(f)](\tau) \\
|
|
& = \int_{\mathbb{R}} \Gamma_{xx}(f)e^{j2\pi f \tau} df \\
|
|
P_x & = \int_{\mathbb{R}} \Gamma_{xx}(f)df
|
|
\end{align*}
|
|
|
|
\item
|
|
\begin{align*}
|
|
\gamma_{xx}(-\tau) & = E[x(t)x^*(t+\tau)] \\
|
|
& = E[x(t)x^*(t+\tau)]^{**} \\
|
|
& = E[x^*(t)x(t+\tau)]^* \\
|
|
& = E[x(t+\tau)x^*(t)]^* \\
|
|
& = \gamma_{xx}(\tau)^*
|
|
\intertext{Ainsi,}
|
|
\Gamma_{xx}^*(f) & = ( \int_{\R} \gamma_{xx}(\tau)e^{-j2\pi f\tau} d\tau)^* \\
|
|
& = \int_{\R} \gamma_{xx}^*(\tau)e^{j2\pi f\tau} d\tau \\
|
|
& =\int_{\R} \gamma_{xx}(-\tau)e^{j2\pi f\tau} d\tau \\
|
|
& =\int_{\R} \gamma_{xx}(\tau')e^{-j2\pi f\tau'} d\tau' \\
|
|
& = \Gamma_{xx}(f)
|
|
\intertext{Donc $\Gamma_{xx}(f) \in \R$}
|
|
\end{align*}
|
|
|
|
|
|
\item
|
|
On suppose que $x(t) \in \mathbb{R}$
|
|
Montrons que $\Gamma_{xx}(\tau)$ est paire :
|
|
\begin{align*}
|
|
\Gamma_{xx}(-f) &= \int_\mathbb{R} \gamma_{xx}(\tau)e^{-j2\pi(-f)\tau} d\tau\\
|
|
&= \int_\mathbb{R} \gamma_{xx}(-\tau)e^{-j2\pi f\tau} d\tau \text{en posant $\tau = -\tau'$}\\
|
|
&= \int_\mathbb{R} \gamma_{xx}^*(\tau)e^{-j2\pi f\tau} d\tau\\
|
|
&= \int_\mathbb{R} \gamma_{xx}(\tau)e^{-j2\pi f\tau} d\tau \text{ car $x$ est réel} \\
|
|
&=\Gamma_{xx}(f)
|
|
\end{align*}
|
|
Ainsi, $\Gamma_{xx}(f)$ est bien paire.
|
|
|
|
\item
|
|
Montrons que $\gamma_{xy}(-\tau)=\gamma_{yx}^*(-\tau)$\\
|
|
\begin{align*}
|
|
\forall \tau \in \mathbb{R}\\
|
|
\gamma_{xy}(-\tau) &= E[x(t)y^*(t+\tau)]*^*\\
|
|
&= E[y(t+\tau)x^*(t)]^*\\
|
|
&=\gamma_{xy}(\tau)^*
|
|
\end{align*}
|
|
Remarque : on retrouve la formule du 3. si y(t) = x(t).
|
|
|
|
|
|
\item
|
|
\begin{itemize}
|
|
\item $\gamma_{xx}(0)$ est le maximum de l'autocorrélation.
|
|
\item donc sa dérivée en 0 est nulle.
|
|
\item et sa dérivée seconde est négative pour assurer la concavité (car maximum).
|
|
\end{itemize}
|
|
|
|
Remarque : FL(filtre linéaire) = SL(système linéaire) + temps invariant.\\
|
|
si x(t) est stationnaire alors x'(t) aussi et :
|
|
$m_{x'} = E[x'(t)] = E[\frac{dx(t)}{dt}] = \frac{d}{dt}E[x(t)]$ car l'espérance ne dépent pas du temps donc l'interversion est possible.\\
|
|
$\gamma_{xx}'(\tau) = \frac{d}{d\tau}E[x(t)x^*(t-\tau)] = E[x(t)\frac{\partial}{\partial \tau}x^*(t-\tau)] = -\gamma_{xx}(\tau)$\\
|
|
|
|
\item
|
|
\begin{align*}
|
|
\gamma_{xx}(\tau) &= \int_\mathbb{R} \Gamma_{xx}(f)e^{+j2\pi f\tau}df\\
|
|
\gamma_{xx}'(\tau) &= \frac{d}{d\tau} \gamma_{xx}(\tau) = \int_\mathbb{R}(j2\pi f) \Gamma_{xx}(\tau)e^{+j2\pi f \tau} df\\
|
|
\gamma_{xx}''(\tau) &= \int_\mathbb{R}(j2\pi f)^2 \Gamma_{xx}(\tau)e^{+j2\pi f \tau} df\\
|
|
|\gamma_{xx}(\tau)| &\leq \int_\mathbb{R} |\Gamma_{xx}(f)|df = \int_\mathbb{R} \Gamma_{xx}(f)df = \gamma_{xx}(0)\\
|
|
%|\gamma_{xx}(\tau)| &< + \infty \texte{ si $\Gamma_{xx}(f)$ décroit plus vite que $\frac{1}{f}$ en $\pm \infty$}\\
|
|
|\gamma_{xx}'(\tau)| &\leq \int_\mathbb{R} 2 \pi |f| \Gamma_{xx}(f) df < + \infty \text{ si $\Gamma_{xx}(f)$ décroit plus vite que $\frac{1}{f^2}$ en $\pm \infty$}\\
|
|
\intertext{et ainsi de suite pour des ordres supérieurs}
|
|
\gamma_{xx}'(0)&=0 \intertext{ car $f\Gamma_{xx}(f)$ est impaire donc l'intégrale est nulle sur $\mathbb{R}$. Ou alors, $\gamma'$ est réelle et égal à $j$ fois un réel, donc est nulle.}
|
|
\end{align*}
|
|
|
|
\item
|
|
$s(t) = (h*e)(t) = \int_\mathbb{R}h(\theta)e(t-\theta) d\theta$ avec h la réponse impulsionnelle.\\
|
|
\begin{align*}
|
|
m_s &= E[s(t)]\\
|
|
&= E[\int_\mathbb{R} h(\theta)e(t-\theta)d\theta]\\
|
|
&= \int_\mathbb{R}h(\theta)E[e(t-\theta)] d\theta\\
|
|
&= m_e \int_\mathbb{R} d\theta\\
|
|
&= H(0) m_e \\
|
|
H(f) &= \int_\mathbb{R}h(t)e^{-j2\pi ft}dt\\
|
|
H(0) &= \int_\mathbb{R}h(t)dt
|
|
\end{align*}
|
|
|
|
\item
|
|
$\Gamma_{ss}(f)$ en fonction de $H(f)$, $\Gamma_{ee}(f)$. Formules des interférences :
|
|
\begin{align*}
|
|
\Gamma_{ss}(f) &= H(f)H^*(f)\Gamma_{ee}(f)\\
|
|
&= |H(f)|^2\Gamma_{ee}(f)df\\
|
|
P_s &= \int_\mathbb{R} \Gamma_{ss}(f) df = \int_\mathbb{R} |H(f|^2 \Gamma_{ee}(f) df \geq 0
|
|
\end{align*}
|
|
On suppose par l'absurde qu'il existe $f_0 \in \mathbb{R}$ tel que $\Gamma_{ee}(f_0) < 0$
|
|
|
|
$\Rightarrow \exists(f_1,f_2) \in \mathbb{R}^2 \avec f_2 > f_0 > f_1$ tel que \[\forall f \in ]f_1,f_2[, \Gamma_{ee}(f) < 0\]
|
|
On utilise un filtre passe-bande idéal de gain unitaire et :
|
|
\[P_s = \int_\mathbb{R}\Gamma_{ss}(f)df = \int_{f_1}^{f_2}|H(f)|^2 \Gamma_{ee}(f) df < 0\]
|
|
Impossible donc $\forall f \in \R, \Gamma_{ee}(f) \geq 0$.
|
|
|
|
|
|
\item
|
|
On considère deux signaux stationnaires dans leur ensemble. La formule des interférences donne :
|
|
\begin{align*}
|
|
\Gamma_{s_1s_2}(f) &= H_1(f)H_2^*(f)\Gamma_{e_1e_2}(f)\\
|
|
\intertext{Montrons que : } \gamma_{xx'}(\tau) &= -\gamma_{xx}'(\tau)
|
|
\intertext{Avec $H_1(f) = 1$ et $H_2(f) = j2\pi f$ (dérivateur de $x$), on a :}
|
|
\Gamma{xx'}(f) &= -j2\pi f \Gamma{xx}(f)
|
|
\intertext{Par transformée de Fourier inverse il vient :}
|
|
\gamma_{xx'}(\tau) &= -\gamma_{xx}'(\tau)\\
|
|
\intertext{De même, avec $H_1(f) = H_2(f) = j2\pi f$, on a :}
|
|
\Gamma{x'x'}(f) &= -(j2\pi f)^2\Gamma{xx}(f)
|
|
\intertext{avec la transformée inverse de Fourier il vient :}
|
|
\gamma_{x'x'}(\tau) &= -\gamma_{xx}''(\tau)\\
|
|
\end{align*}
|
|
|
|
\end{enumerate}
|
|
|
|
\end{document}
|