diff --git a/453-Traitement_Image/Cours/chap2.tex b/453-Traitement_Image/Cours/chap2.tex index 8c44ce0..788b346 100644 --- a/453-Traitement_Image/Cours/chap2.tex +++ b/453-Traitement_Image/Cours/chap2.tex @@ -45,11 +45,11 @@ Pour $x\in\R^M $et $y\in\R^N$ on considère que $H$ est un opérateur linéaire. \item $ p = N=M$ Alors $H$ bijectif, $\vec{\hat{x}} = H^{-1}\vec{y}$. \item $ p M$ pas d'existance mais on peux trouver l'inverse généralisé \[ - \vec{\hat{x}} = (\vec{H}^t\vec{H})^{-1}\vec{H}^t\vec{y} + \vec{\hat{x}} = (\vec{H}^T\vec{H})^{-1}\vec{H}^T\vec{y} \] \end{itemize} \end{prop} @@ -61,7 +61,7 @@ En ajoutant une erreur $\delta\vec{x}$ a$\hat{\vec{x}}$ on peux calculer comment \begin{defin} À partir de l'inverse généralisé on a : \[ - \|\delta x \| \leq \vertiii{(\vec{H}^t\vec{H})^{-1}} \vertiii{\vec{H}^t} + \|\delta x \| \leq \vertiii{(\vec{H}^T\vec{H})^{-1}} \vertiii{\vec{H}^T} \] avec $\vertiii{\vec{H}} = \sqrt{\max\{Sp(\vec{H})\}}$ Alors on défini le nombre de condition: @@ -83,12 +83,131 @@ Si il y a un mauvais conditionnement, le bruit (qui est presente sur toutes les \] L'estimateur devient : \[ - \hat{\vec{x}} = (\tilde{\vec{H}^t}\tilde{\vec{H}})^{-1}\tilde{\vec{H}^t}\vec{y} + \hat{\vec{x}} = (\tilde{\vec{H}^T}\tilde{\vec{H}})^{-1}\tilde{\vec{H}^T}\vec{y} \] \section{Quelques méthode d'inversion classique} +\subsection{Estimateur des moindres carrés} +\begin{prop} + L'estimateur des moindres carré cherche àç minimiser la norme quadratique: + \[ +\hat{\vec{x}}_{MC} = \arg\min \| \vec{y-Hx}\|_2^2 = (\vec{H}^T\vec{H})^{-1}\vec{H}^{T}\vec{y} + \] +\end{prop} + +\subsection{Estimateur des moindres carrés régularisé} + +\emph{cf. UE 451 et poly} + + +On veux améliorer le conditionnement de la matrice. +\begin{prop} + On modifie la fonction de cout des moindres carrés + \[ + Q_{MCR}= \| \vec{y-Hx}\|_2^2 + \mu \mathcal{R}(\vec{x}) + \] +\end{prop} + +\subsubsection{Régularisation quadratique} +Plusieurs régularisation classiques sont possibles: + +\begin{itemize} +\item Rappel à un objet connu + \[ + \mathcal{R}(x) = (\vec{x}-\vec{x}_\infty)^T(\vec{x}-\vec{x}_\infty) + \] +\item Terme séparable + \[ + \mathcal{R}(x) = \vec{x}^T\vec{x} + \] +\item Terme de différences (mesure de régularité) + \[ + \mathcal{R}(x) = \sum_{i}^{}(x_{i+1}-x_i)^2 = \vec{x}^T\vec{D}^T\vec{D}\vec{x} + \] +\end{itemize} + +\subsubsection{Régularisation convexe différentiable} +Pour pénaliser de moins fortes valeurs on peux choisir une autre fonction de cout comme la fonction de Hubert (ou terme $L_2L_1$) +\begin{defin} + On appelle fonction de Huber +\[\phi_s(\tau) = + \begin{cases} + \tau^2 & |\tau|< s \\ + 2 s|\tau|-s^2 & |\tau| \ge s + \end{cases} +\] +Et sa généralisation vectorielle: +\[ + \vec{\Phi} = \sum_{}^{}\phi_s(x_n) +\] +\end{defin} +\begin{figure}[H] + \centering + \begin{tikzpicture} + \pgfplotsset{grid style={dotted,gray}} + \begin{axis} + [axis lines = middle, + domain=-2:2,grid, + ] + \addplot[black,dashed]{x^2}; + \addplot[black,domain=-0.5:0.5]{x^2}; + \addplot[black,domain=-2:-0.5]{2*0.5*abs(x)-0.25}; + \addplot[black,domain=0.5:2]{2*0.5*abs(x)-0.25}; + \end{axis} + \end{tikzpicture} + \caption{Fonction convexe et quadratique} +\end{figure} +Comme précédemment on utilise différente fonction de régularisation. +\begin{itemize} +\item Rappel à un objet connu + \[ + \mathcal{R}(x) = \Phi_s(\vec{x}-\vec{x}_\infty) + \] +\item Terme séparable + \[ + \mathcal{R}(x) = \Phi_s(\vec{x}) + \] +\item Terme de différences (mesure de régularité) + \[ + \mathcal{R}(x) = \sum_{i}^{} \phi_s(x_{i+1}-x_i) = \Phi_s(\vec{D}\vec{x}) + \] +\end{itemize} + + \section{Caractérisation statistique des estimateurs} +\emph{cf. UE 451 et poly} \section{Interprétation bayésienne} + +\subsection{Vraisemblance} +\begin{defin} + En choisissant une ddp pour le bruit on a: + \[ + f(\vec{y}|\vec{x}) =k_0 \exp\left[ \frac{1}{2\sigma_b^2} \|\vec{y-Hx}\|^2\right] + \] + Comme en pratique on connais $\vec{y}$ on a une fonction de $\vec{x}$ et $\sigma_b^2$. Que l'on appelle fonction de vraisemblance. +\end{defin} +\begin{defin} + \begin{itemize} + \item \emph{Loi a priori} + \[ + f(\vec{x}|\sigma_0^2,\sigma_1^2)= k_1 exp\left[\frac{1}{2\sigma_1^2} \|\vec{Dx}\|^2 - \frac{1}{2\sigma_0^2} \|x\|^2\right] + \] + La matrice $D$ correspond à ?? +\item \emph{Loi a posteriori} + À partir de la règle de Bayes: + \[ + f(\vec{x}|\vec{y},\sigma_b,\sigma_1,\sigma_0) = \frac{f(\vec{y}|\vec{x})f(\vec{x}|\sigma_0,\sigma_1)}{f(\vec{y}|\sigma_b^2,\sigma_0^2,\sigma_1^2)} + \] + La loi a posteriori rassemble toute l'information que l'on a sur $\vec{x}$ +\end{itemize} +\end{defin} +\subsection{Vraisemblance gaussienne} + + +\subsection{Vraisemblance laplacienne} + + + \section{Application à un cas simple d'observation multiple} \section{Application à la déconvolution problème d'optimisation} \section{Application de ma méthodologie bayésienne}