diff --git a/455-Codage_Sources/Cours/chap3.tex b/455-Codage_Sources/Cours/chap3.tex index d66dfce..79babf3 100644 --- a/455-Codage_Sources/Cours/chap3.tex +++ b/455-Codage_Sources/Cours/chap3.tex @@ -151,7 +151,7 @@ E(X_{n-p}X_{n-1}) & \dots & \dots & E(X_{n-p}X_{n-p}) \text{ donc } e & = \gamma_x(0) + \ap^T \Rp \ap - 2 \ap^T \cp \end{align*} -\[ \left.\derivp[e]{\ap}\right|_{\hat{\ap}} = 0 \quad \Leftrightarrow \quad \underline{0} + 2 \Rp\hat{\ap} - 2\cp = 0 \quad \Rightarrow \quad \hat{\ap} = \Rp^{-1} \cp \] +\[ \left.\derivp[e]{\ap}\right|_{\hat{\ap}} = 0 \quad \Leftrightarrow \quad \vec{0} + 2 \Rp\hat{\ap} - 2\cp = 0 \quad \Rightarrow \quad \hat{\ap} = \Rp^{-1} \cp \] Pour cette valeur de $\hat{\ap}$, on a \begin{align*} @@ -175,7 +175,7 @@ On met en œuvre un dispositif de prédiction exploitant les échantillons dispo Pour le réglage du prédicteur, on distingue plusieurs méthodes : \begin{enumerate}\setlength{\itemsep}{5mm} -\item On calcule $\hat{\gamma_x}$ sur tout le signal et on transmet $\underline{\hat{a}}_{opt}$. +\item On calcule $\hat{\gamma_x}$ sur tout le signal et on transmet $\vec{\hat{a}}_{opt}$. Avantage : \begin{itemize} @@ -196,17 +196,17 @@ Avantages : \end{itemize} Inconvénient : \begin{itemize} -\item débit nécessaire à la transmission des $\underline{\hat{a}}_{opt}$. +\item débit nécessaire à la transmission des $\vec{\hat{a}}_{opt}$. \end{itemize} -\item Mettre en place un prédicteur adaptatif. On travaille sur une fenêtre glissante contenant les N échantillons décalés : $\underline{\hat{X}}_n = (\hat{x}_{n-1}, ..., \hat{x}_{n-N})^T$. +\item Mettre en place un prédicteur adaptatif. On travaille sur une fenêtre glissante contenant les N échantillons décalés : $\vec{\hat{X}}_n = (\hat{x}_{n-1}, ..., \hat{x}_{n-N})^T$. -On calcule $\underline{\hat{a}}_{opt}$ à partir de $\underline{\hat{X}}_n$ (au codeur et au décodeur). On applique $\underline{\hat{a}}_{opt}$ pour coder et décoder $x_n$ en $\hat{x}_n$. À l'itération suivante, on calcule $\underline{\hat{a}}_{opt}$ à partir de $\underline{\hat{X}}_{n+1} = (\hat{x}_{n}, ..., \hat{x}_{n-N+1})^T$. +On calcule $\vec{\hat{a}}_{opt}$ à partir de $\vec{\hat{X}}_n$ (au codeur et au décodeur). On applique $\vec{\hat{a}}_{opt}$ pour coder et décoder $x_n$ en $\hat{x}_n$. À l'itération suivante, on calcule $\vec{\hat{a}}_{opt}$ à partir de $\vec{\hat{X}}_{n+1} = (\hat{x}_{n}, ..., \hat{x}_{n-N+1})^T$. Avantages : \begin{itemize} \item Il est très adaptatif. -\item On ne transmet plus $\underline{\hat{a}}_{opt}$ +\item On ne transmet plus $\vec{\hat{a}}_{opt}$ \end{itemize} Inconvénient :