From 90e13616b4f1ca4a214df474914a179554217812 Mon Sep 17 00:00:00 2001 From: Pierre-antoine Comby Date: Mon, 28 Jan 2019 13:08:24 +0100 Subject: [PATCH] 455 cours du 21/01 --- 455-Codage_Sources/Cours/chap1.tex | 15 +++++++++------ 455-Codage_Sources/Cours/chap3.tex | 5 +++++ 2 files changed, 14 insertions(+), 6 deletions(-) diff --git a/455-Codage_Sources/Cours/chap1.tex b/455-Codage_Sources/Cours/chap1.tex index acfa89c..e1c8c86 100644 --- a/455-Codage_Sources/Cours/chap1.tex +++ b/455-Codage_Sources/Cours/chap1.tex @@ -310,9 +310,10 @@ Une condition nécessaire d'optimisation est que: \bigbreak \bigbreak Pour ce choix de longueurs de mots de code, on obtient: + \begin{prop} + Le meilleur code préfixe a une longueur moyenne au minimum égale à l'entropie de la source. \[ \boxed{ \overline{l} = \sum_{j=1}^J p_j(-log_2p_j) = H(x)}\] - Le meilleur code préfixe a une longueur moyenne au minimum égale à l'entropie de la source.\\ - +\end{prop} \begin{rem} L'entropie (avec une source sans mémoire) donne une borne supérieure de la quantité d'information réelle contenue dans un message. Dans le cas d'un texte, l'entropie au sens d'une source de Makorv diminue quand on augmente l'ordre, jusqu'à se stabiliser au bout d'un certain ordre. \end{rem} @@ -440,13 +441,10 @@ Cette procédure est efficace pour $N\to +\infty$, avec l'$\infty$ petit. Par ex \paragraph{Décodage} On part de $c(x_{1:N})$, on réalise le découpage de $[0,1[$ suivant les probabilités d'apparition de 0 et de 1. À chaque étape, l'intervalle auquel appartient $c(x_{1:N})$ permet de déterminer le bit codé.\\ -\paragraph{Réalisation pratique} +\subsubsection{Réalisation pratique} En pratique, le codage utilise l'intervalle $[0,2^p[$ où $p$ désigne la précision du codeur arithmétique. (pour le codage H264/AVC, on a $p=9$). - On réalise des homothéties de centre 0, de rapport $2^p$ ou $2^{p-1}$ avec ou sans émission de bits. - On estime les probabilités d'apparition des bits en parallèle du codage au codeur et au décodeur, et on modifie la façon de découper les intervalles en fonction de ces probabilités d'apparition estimées. - On obtient alors un CABAC : Context Adaptative Binary Arithmetic Coder. \begin{rem} @@ -529,3 +527,8 @@ En pratique : \end{itemize} \end{document} + +%%% Local Variables: +%%% mode: latex +%%% TeX-master: "main" +%%% End: diff --git a/455-Codage_Sources/Cours/chap3.tex b/455-Codage_Sources/Cours/chap3.tex index 3cf2d00..29f4a17 100644 --- a/455-Codage_Sources/Cours/chap3.tex +++ b/455-Codage_Sources/Cours/chap3.tex @@ -172,3 +172,8 @@ Inconvénient : \end{document} + +%%% Local Variables: +%%% mode: latex +%%% TeX-master: "main" +%%% End: