212 lines
No EOL
7.6 KiB
TeX
212 lines
No EOL
7.6 KiB
TeX
\documentclass{article}
|
||
\input{../../preambule/preambule}
|
||
|
||
\newcommand{\nom}{TD6 : Allocation optimale de bits}
|
||
\renewcommand{\nomentete}{UE455 - \nom}
|
||
|
||
|
||
|
||
\begin{document}
|
||
|
||
\titre{\nom}
|
||
|
||
\cacededi{C'est bizarre, il a dit "reconnaissance de formes" et on l'a pas entendu jouir derrière.}{Tom Colinot}
|
||
|
||
\section{Transformation unitaires, gain de codage}
|
||
|
||
\subsection{Quantification sans transformation}
|
||
|
||
\newcommand{\y}{\underline{y}}
|
||
|
||
On considère une source $X$ dont les réalisations sont groupées en $N$ composantes considérées comme générées par une source vectorielle $Y$.
|
||
|
||
\begin{center}
|
||
\begin{tabular}{c|cc}
|
||
$X_i$ & $x_1\dots x_N$ & $x_{N+1} \dots x_{2N}$ \\
|
||
\hline
|
||
$Y_i$ & $\y_1$ & $\y_2$
|
||
\end{tabular}
|
||
\end{center}
|
||
|
||
\begin{enumerate}\setlength{\itemsep}{5mm}
|
||
\item On dispose de $NR$ bits par vecteur de $N$ composantes, donc on utilise $R$ bits par composante.
|
||
|
||
\item $D_Y = \frac{1}{N} E(||\y_k-\tilde{\y_k}||^2) = D_X$.
|
||
\end{enumerate}
|
||
|
||
\subsection{Quantification après transformation}
|
||
|
||
\newcommand{\tv}{\underline{t}}
|
||
\newcommand{\Uu}{\underline{\underline{U}}}
|
||
\newcommand{\Id}{\underline{\underline{I}}}
|
||
|
||
\begin{enumerate}\setlength{\itemsep}{5mm}\setcounter{enumi}{2}
|
||
\item On fait une transformation sur $\y_k$ :
|
||
\[ \tv_k = \Uu^T \y_k \avec \Uu.\Uu^T = \Id_N\]
|
||
|
||
\imgt{1}
|
||
|
||
\begin{align*}
|
||
D_T & = \frac{1}{N}E(||\tv_k - \tilde{\tv_k}||^2 ) \\
|
||
& = \frac{1}{N} E(||\Uu^T \y_k - \Uu^T \tilde{\y_k}||^2) \\
|
||
& = \frac{1}{N} E((\Uu^T(\y_k-\tilde{\y_k}))^T.(\Uu^T(\y_k-\tilde{\y_k}))) \\
|
||
& = \frac{1}{N}E((\y_k - \tilde{y_k})^T \Uu.\Uu^T(\y_k - \tilde{y_k})) \\
|
||
& = \frac{1}{N}E(||\y_k - \tilde{\y_k}||^2) \\
|
||
& = D_Y
|
||
\end{align*}
|
||
|
||
\item \[NR = \sum_{l=1}^N R_l\]
|
||
|
||
\item \[D_T = \frac{1}{N} \sum_{l=1}^N D_{t,l}(R_l) = \frac{1}{N} \sum_{i=1}^N \epsilon_{t,l}\sigma^1_{t,l} 2^{-2R_l} \]
|
||
|
||
\item On peut jouer sur $R_i, \forall i= 1, \dots N$ pour minimiser $D_T$ sous la contrainte $\sum R_l = NR$.\\
|
||
|
||
$D_T$ est une fonction convexe, donc la condition d'extremum est une condition de minimum.\\
|
||
|
||
On utilise le lagrangien :
|
||
\[ J(R_1, \dots, R_N, \ld) = \frac{1}{N} \sum_{l=1}^N \epsilon_{t,l} \sigma_{t,l}^2 2^{-2R_l} + \ld(\sum_{l=1}^N R_l - NR) \]
|
||
|
||
\item Les conditions nécessaires pour minimiser $J(R_1, \dots, R_N, \ld)$ sont donc :
|
||
\[ \acc{ \drond{J}{R_l} & = 0, \quad \forall l = 1, \dots, N }{ \drond{J}{\ld} & = 0, \quad \forall \ld \in \{\ld\} \quad \text{Lolilonche}} \]
|
||
|
||
\item \begin{align*}
|
||
\drond{J}{R_l} = 0 & \Leftrightarrow \frac{1}{N} \epsilon_{t,l} \sigma_{t,l}^2 (-2\ln2)2^{-2R_l} + \ld = 0 \\
|
||
& \Leftrightarrow 2^{-2R_l} = \frac{N\ld}{\epsilon_{t,l} \sigma_{t,l}^2 (2\ln2)}, \quad \forall l = 1, \dots, N\\
|
||
\drond{J}{\ld} = 0 & \Leftrightarrow \sum_{l=1}^N R_l = NR
|
||
\intertext{On en déduit donc que}
|
||
2^{-2\sum R_l} & = \prod_{l=1}^N \frac{N\ld}{\epsilon_{t,l} \sigma_{t,l}^2 (2\ln2)} \\
|
||
2^{-2NR} & = \prod_{l=1}^N \frac{(N\ld/(2\ln2))}{\epsilon_{t,l} \sigma_{t,l}^2} \\
|
||
2^{-2NR} & = \frac{(N\ld/(2\ln2))^N}{\prod_{l=1}^N\epsilon_{t,l} \sigma_{t,l}^2} \\
|
||
(N\ld/(2\ln2)) & = 2^{-2R} (\prod_{l=1}^N\epsilon_{t,l} \sigma_{t,l}^2)^{1/N} \\
|
||
\ld & = \frac{2\ln2}{N}2^{-2R} (\prod_{l=1}^N\epsilon_{t,l} \sigma_{t,l}^2)^{1/N}
|
||
\intertext{ Ainsi, en reprenant l'expression trouvée pour $2^{-2R_l}$}
|
||
R_l & = -\frac{1}{2} \log_2 \frac{(N\ld/(2\ln2))}{\epsilon_{t,l} \sigma_{t,l}^2} \\
|
||
& = \frac{1}{2} \log_2 \frac{\epsilon_{t,l} \sigma_{t,l}^2}{2^{-2R}(\prod_{l=1}^N\epsilon_{t,l} \sigma_{t,l}^2)^{1/N}} \\
|
||
R_l & = R + \frac{1}{2} \log_2 \frac{\epsilon_{t,l} \sigma_{t,l}^2}{2^{-2R}(\prod_{l=1}^N\epsilon_{t,l} \sigma_{t,l}^2)^{1/N}}
|
||
\end{align*}
|
||
|
||
\item \begin{align*}
|
||
D_{t,l}(R_l) & = \epsilon_{t,l} \sigma_{t,l}^2 2^{-2R_l} \\
|
||
& = \epsilon_{t,l} \sigma_{t,l}^2 \frac{N\ld}{\epsilon_{t,l} \sigma_{t,l}^2 (2\ln2)} \\
|
||
D_{t,l}(R_l)& = \frac{N\ld }{2\ln2} \quad \text{constante}
|
||
\end{align*}
|
||
|
||
\item \begin{align*}
|
||
D_T^* & = \frac{1}{N} \sum_{l=1}^N D_{t,l}(Rl) \\
|
||
& = \frac{1}{N} N \frac{N\ld}{2\ln2} \\
|
||
& = \frac{N\ld}{2\ln2} \\
|
||
D_T^* & = 2^{-2R} (\prod_{l=1}^N\epsilon_{t,l} \sigma_{t,l}^2)^{1/N}
|
||
\end{align*}
|
||
|
||
\item \[ D = \frac{1}{N} \sum_{l=1}^N \epsilon_{t,l} \sigma_{t,l}^2 2^{-2R} \]
|
||
|
||
\item \[G_T = \frac{\frac{1}{N}\sum_{l=1}^N \epsilon_{t,l} \sigma_{t,l}^2}{(\prod_{l=1}^N \epsilon_{t,l} \sigma_{t,l}^2)^{1/N}} \]
|
||
\end{enumerate}
|
||
|
||
\begin{flushright}
|
||
Si tu n'as pas encore vomi c'est le moment, je te laisse un bout de page blanche.
|
||
\end{flushright}
|
||
|
||
\vspace{8cm}
|
||
|
||
\subsection{Applications numériques}
|
||
Le chinois a \emph{rage quit}.
|
||
|
||
\newpage
|
||
\section{Techniques de codage d'images}
|
||
|
||
\subsection{Codage sans pertes}
|
||
|
||
\begin{enumerate}\setlength{\itemsep}{5mm}
|
||
\item On estime d'abord les probabilités d'apparition :
|
||
|
||
\begin{center}
|
||
\begin{tabular}{c|c|c}
|
||
Symbole & Nombre d’occurrences & Probabilité estimée \\
|
||
\hline
|
||
4 & 1 & 1/16 \\
|
||
6 & 3 & 3/16 \\
|
||
8 & 7 & 7/16 \\
|
||
10 & 5 & 5/16
|
||
\end{tabular}
|
||
\end{center}
|
||
|
||
L'estimation de l'entropie est donc :
|
||
\[ \hat{H} = -\sum_i p_i \log_2 p_i \approx 1.749 \text{bpp} \]
|
||
|
||
\item Il n'est pas possible d'obtenir un débit de 0.5 bpp $< \hat{H}$.
|
||
\end{enumerate}
|
||
|
||
\subsection{Codage avec pertes - Quantification}
|
||
|
||
\begin{enumerate}\setlength{\itemsep}{5mm}\setcounter{enumi}{2}
|
||
\item $E(X) = 4\frac{1}{16} + 6\frac{3}{16} + 8\frac{7}{16} + 10\frac{5}{16} = 8$
|
||
|
||
$Var(X) = E((X-E(X))^2) = \dots = 3$
|
||
|
||
\item $D(R) = \sigma_X^2 2^{-2R}$
|
||
\img{0.5}{2}
|
||
|
||
\item $RSB_{dB} \approx 6R$ donc $R=1 \text{bpp} \Rightarrow RSB_{dB} = 6dB$. Pour $R=0.5\text{bpp}$, on aurait $RSB_{dB}=3dB$.
|
||
|
||
\item On choisit le quantificateur suivant :
|
||
\img{0.5}{3}
|
||
|
||
\[ \hat{X} = \acc{ \mu + \Delta & \si X \geq \mu }{ \mu - \Delta & \sinon} \]
|
||
|
||
\begin{align*}
|
||
D & = \int_{-\infty}^{+\infty} ( X-\hat{X})^2 f_X(x) dx \\
|
||
& = 2 \int_{\mu}^{+\infty} (X-\mu-\Delta)^2 f_X(x) dx
|
||
\intertext{Changement de variables $z=x-\mu$}
|
||
D & = 2\int_0^{+\infty} (z-\Delta)^2 f_Z(z) dz \quad \avec f_Z(z) = \frac{1}{\sqrt{2\pi\sigma_X^2}}\exp(-\frac{z)^2}{2\sigma_X^2}) \\
|
||
D & = 2\int_0^{\infty} z^2 f_Z(z) dz + 2\Delta^2 \int_0^{\infty} f_Z(z)dz - 4 \Delta\int_0^{\infty} zf_Z(z)dz \\
|
||
& = \sigma_X^2 + \Delta^2 - 4 \Delta\int_0^{\infty} zf_Z(z)dz
|
||
\intertext{Or,}
|
||
\int_0^{\infty} zf_Z(z)dz & = \int_0^{+\infty} \frac{1}{\sqrt{2\pi\sigma_X^2}}\exp(-\frac{z)^2}{2\sigma_X^2}) dz \\
|
||
& = \frac{1}{2} \int_0^{\infty} \frac{1}{\sqrt{2\pi\sigma_X^2}}\exp(\frac{-y}{2\sigma_X^2}) dy \quad \avec y=z^2\\
|
||
& = \frac{1}{2} \frac{2\sigma_X^2}{\sqrt{2\pi\sigma_X^2}} = \frac{1}{2} \sqrt{\frac{2\sigma_X^2}{\pi}}
|
||
\intertext{Donc}
|
||
D(\Delta) = \Delta^2 - 2\sqrt{\frac{2\sigma_X^2}{\pi}} \Delta + \sigma_X^2
|
||
\end{align*}
|
||
|
||
Ainsi,
|
||
\begin{align*}
|
||
\drond{D}{\Delta} = 0 & \Rightarrow \Delta^* = \sqrt{\frac{2\sigma_X^2}{\pi}} \approx 1.4 \\
|
||
& \Rightarrow D^* = \frac{2\sigma_X^2}{\pi} - 2\frac{2\sigma_X^2}{\pi} + \sigma_X^2 = \sigma_X^2(1-\frac{2}{\pi})\\
|
||
& \Rightarrow RSB^* = \frac{\sigma_X^2}{D^*} = \frac{1}{1-\frac{2}{\pi}} \approx 2.75
|
||
& \Rightarrow RSB_{dB}^* = 10\log_{10}2.75 \approx 4.396 \text{dB} < 6 \text{dB}
|
||
\end{align*}
|
||
|
||
\item Pour avoir $R=0.5$ bpp on doit utiliser un quantificateur vectoriel.
|
||
\end{enumerate}
|
||
|
||
\subsection{Codage avec perte - DPCM}
|
||
|
||
\newcommand{\Aa}{\underline{\underline{A}}}
|
||
\newcommand{\A}{\underline{A}}
|
||
|
||
\begin{enumerate}\setlength{\itemsep}{5mm}\setcounter{enumi}{7}
|
||
\item \begin{align*}
|
||
\Aa & = [ \A_1 \A_2 \A_3 \A_4 ] \\
|
||
\A_l & = [\A_1^T \A_2^T \A_3^T \A_4^T] \\
|
||
& = [6,4,6,8,6,8,10,8,8,10,10,8,10,8,10]
|
||
\end{align*}
|
||
|
||
\item Soit $E(y) = 0, \y=[y_1,\dots y_N]$
|
||
|
||
$\hat{y_{i+1}} = \alpha y_i, \quad \alpha^* = \frac{\gamma_Y(1)}{\gamma_Y(0)}$
|
||
|
||
$\underline{B}_L = \A_l - 8[ 1, 1, \dots 1 ] = [-2, -4, -2, \dots]$
|
||
|
||
$\gamma_X(0) = \sigma_X^2 = 3$
|
||
|
||
$\gamma_X(1) = \frac{1}{N} \sum_{i=1}^{N-1} B_l(i+1) B_L(i) = 5/4$
|
||
|
||
$\alpha \approx 0.4$
|
||
|
||
$\y(i) = \alpha B_L(i-1) + 8$
|
||
|
||
La variance diminue un peu.
|
||
\end{enumerate}
|
||
|
||
\end{document} |