underline -> vec
This commit is contained in:
parent
77156146eb
commit
ffb432f9aa
1 changed files with 6 additions and 6 deletions
|
@ -151,7 +151,7 @@ E(X_{n-p}X_{n-1}) & \dots & \dots & E(X_{n-p}X_{n-p})
|
|||
\text{ donc } e & = \gamma_x(0) + \ap^T \Rp \ap - 2 \ap^T \cp
|
||||
\end{align*}
|
||||
|
||||
\[ \left.\derivp[e]{\ap}\right|_{\hat{\ap}} = 0 \quad \Leftrightarrow \quad \underline{0} + 2 \Rp\hat{\ap} - 2\cp = 0 \quad \Rightarrow \quad \hat{\ap} = \Rp^{-1} \cp \]
|
||||
\[ \left.\derivp[e]{\ap}\right|_{\hat{\ap}} = 0 \quad \Leftrightarrow \quad \vec{0} + 2 \Rp\hat{\ap} - 2\cp = 0 \quad \Rightarrow \quad \hat{\ap} = \Rp^{-1} \cp \]
|
||||
|
||||
Pour cette valeur de $\hat{\ap}$, on a
|
||||
\begin{align*}
|
||||
|
@ -175,7 +175,7 @@ On met en œuvre un dispositif de prédiction exploitant les échantillons dispo
|
|||
Pour le réglage du prédicteur, on distingue plusieurs méthodes :
|
||||
|
||||
\begin{enumerate}\setlength{\itemsep}{5mm}
|
||||
\item On calcule $\hat{\gamma_x}$ sur tout le signal et on transmet $\underline{\hat{a}}_{opt}$.
|
||||
\item On calcule $\hat{\gamma_x}$ sur tout le signal et on transmet $\vec{\hat{a}}_{opt}$.
|
||||
|
||||
Avantage :
|
||||
\begin{itemize}
|
||||
|
@ -196,17 +196,17 @@ Avantages :
|
|||
\end{itemize}
|
||||
Inconvénient :
|
||||
\begin{itemize}
|
||||
\item débit nécessaire à la transmission des $\underline{\hat{a}}_{opt}$.
|
||||
\item débit nécessaire à la transmission des $\vec{\hat{a}}_{opt}$.
|
||||
\end{itemize}
|
||||
|
||||
\item Mettre en place un prédicteur adaptatif. On travaille sur une fenêtre glissante contenant les N échantillons décalés : $\underline{\hat{X}}_n = (\hat{x}_{n-1}, ..., \hat{x}_{n-N})^T$.
|
||||
\item Mettre en place un prédicteur adaptatif. On travaille sur une fenêtre glissante contenant les N échantillons décalés : $\vec{\hat{X}}_n = (\hat{x}_{n-1}, ..., \hat{x}_{n-N})^T$.
|
||||
|
||||
On calcule $\underline{\hat{a}}_{opt}$ à partir de $\underline{\hat{X}}_n$ (au codeur et au décodeur). On applique $\underline{\hat{a}}_{opt}$ pour coder et décoder $x_n$ en $\hat{x}_n$. À l'itération suivante, on calcule $\underline{\hat{a}}_{opt}$ à partir de $\underline{\hat{X}}_{n+1} = (\hat{x}_{n}, ..., \hat{x}_{n-N+1})^T$.
|
||||
On calcule $\vec{\hat{a}}_{opt}$ à partir de $\vec{\hat{X}}_n$ (au codeur et au décodeur). On applique $\vec{\hat{a}}_{opt}$ pour coder et décoder $x_n$ en $\hat{x}_n$. À l'itération suivante, on calcule $\vec{\hat{a}}_{opt}$ à partir de $\vec{\hat{X}}_{n+1} = (\hat{x}_{n}, ..., \hat{x}_{n-N+1})^T$.
|
||||
|
||||
Avantages :
|
||||
\begin{itemize}
|
||||
\item Il est très adaptatif.
|
||||
\item On ne transmet plus $\underline{\hat{a}}_{opt}$
|
||||
\item On ne transmet plus $\vec{\hat{a}}_{opt}$
|
||||
\end{itemize}
|
||||
|
||||
Inconvénient :
|
||||
|
|
Loading…
Reference in a new issue