\documentclass[main.tex]{subfiles} \begin{document} \emph{le poly distribué est très bien fait, ici il n'y aura que des prise de note et l'essentiel du cours} \section{Philosophie et difficultés} \subsection{Introduction} \begin{figure}[H] \centering \begin{tikzpicture} \sbEntree{x} \sbBlocL{H}{H}{x} \sbSumh{sum}{H} \sbRelier{H}{sum} \sbSortie{Y}{sum} \sbRelier{x}{H} \sbRelier{sum}{Y} \sbDecaleNoeudy[-3]{sum}{b} \sbRelier{b}{sum} \node[above] at (b){$b$}; \node[left]at(x){$x$}; \node[right]at(Y){$y$}; \end{tikzpicture} \caption{Modélisation du problème direct} \end{figure} \paragraph{Méthode} On fait des hypothèse sur $x$ pour déterminer $\hat{x}$ qui permette de reconstituer un $y$ proche de celui mesuré. On a une connaissance parfaite des hypothèses que l'on a fait. \subsection{Problème mal posé} \begin{defin} Les \emph{Condition de Hadamard} permettent de savoir si un problème est bien posé. \begin{itemize} \item L'existence d'une solution quelques soit l'ensemble des donneés ${\cal Y} = Im(H)$ \item L'unicité: $\Ker(H)=\{0\}$ \item Continuité :lorsque l'erreur $\delta y $tend vers 0 ,$\delta x $ tend aussi vers 0. \end{itemize} \end{defin} \subsection{Discrétisation et linéarisation} Pour $x\in\R^M $et $y\in\R^N$ on considère que $H$ est un opérateur linéaire. \begin{prop} On note $p=rg(H)$ \begin{itemize} \item $ p = N=M$ Alors $H$ bijectif, $\vec{\hat{x}} = H^{-1}\vec{y}$. \item $ p M$ pas d'existance mais on peux trouver l'inverse généralisé \[ \vec{\hat{x}} = (\vec{H}^T\vec{H})^{-1}\vec{H}^T\vec{y} \] \end{itemize} \end{prop} \newcommand{\vertiii}[1]{{\left\vert\kern-0.25ex\left\vert\kern-0.25ex\left\vert #1 \right\vert\kern-0.25ex\right\vert\kern-0.25ex\right\vert}} \paragraph{Conditionnement de la matrice} En ajoutant une erreur $\delta\vec{x}$ a$\hat{\vec{x}}$ on peux calculer comment la matrice $H$ ``amplifie le bruit'' \begin{defin} À partir de l'inverse généralisé on a : \[ \|\delta x \| \leq \vertiii{(\vec{H}^T\vec{H})^{-1}} \vertiii{\vec{H}^T} \] avec $\vertiii{\vec{H}} = \sqrt{\max\{Sp(\vec{H})\}}$ Alors on défini le nombre de condition: \[ \delta x \le c \delta y \] Avec : \[ c =\sqrt{\frac{\lambda_{max}}{\lambda_{min}}} \] \end{defin} Si il y a un mauvais conditionnement, le bruit (qui est presente sur toutes les composantes de la base modale) est amplifié de manière disproportionnées sur certaine composantes. \paragraph{Décomposition en valeur singulière tronquées} On réduit la matrice à ces plus grandes valeurs propres pour réduire le conditionnement \[ \tilde{\vec{H}}= \vec{U_t\Lambda_tV_t} \] L'estimateur devient : \[ \hat{\vec{x}} = (\tilde{\vec{H}^T}\tilde{\vec{H}})^{-1}\tilde{\vec{H}^T}\vec{y} \] \section{Quelques méthode d'inversion classique} \subsection{Estimateur des moindres carrés} \begin{prop} L'estimateur des moindres carré cherche àç minimiser la norme quadratique: \[ \hat{\vec{x}}_{MC} = \arg\min \| \vec{y-Hx}\|_2^2 = (\vec{H}^T\vec{H})^{-1}\vec{H}^{T}\vec{y} \] \end{prop} \subsection{Estimateur des moindres carrés régularisé} \emph{cf. UE 451 et poly} On veux améliorer le conditionnement de la matrice. \begin{prop} On modifie la fonction de cout des moindres carrés \[ Q_{MCR}= \| \vec{y-Hx}\|_2^2 + \mu \mathcal{R}(\vec{x}) \] \end{prop} \subsubsection{Régularisation quadratique} Plusieurs régularisation classiques sont possibles: \begin{itemize} \item Rappel à un objet connu \[ \mathcal{R}(x) = (\vec{x}-\vec{x}_\infty)^T(\vec{x}-\vec{x}_\infty) \] \item Terme séparable \[ \mathcal{R}(x) = \vec{x}^T\vec{x} \] \item Terme de différences (mesure de régularité) \[ \mathcal{R}(x) = \sum_{i}^{}(x_{i+1}-x_i)^2 = \vec{x}^T\vec{D}^T\vec{D}\vec{x} \] \end{itemize} \subsubsection{Régularisation convexe différentiable} Pour pénaliser de moins fortes valeurs on peux choisir une autre fonction de cout comme la fonction de Hubert (ou terme $L_2L_1$) \begin{defin} On appelle fonction de Huber \[\phi_s(\tau) = \begin{cases} \tau^2 & |\tau|< s \\ 2 s|\tau|-s^2 & |\tau| \ge s \end{cases} \] Et sa généralisation vectorielle: \[ \vec{\Phi} = \sum_{}^{}\phi_s(x_n) \] \end{defin} \begin{figure}[H] \centering \begin{tikzpicture} \pgfplotsset{grid style={dotted,gray}} \begin{axis} [axis lines = middle, domain=-2:2,grid, ] \addplot[black,dashed]{x^2}; \addplot[black,domain=-0.5:0.5]{x^2}; \addplot[black,domain=-2:-0.5]{2*0.5*abs(x)-0.25}; \addplot[black,domain=0.5:2]{2*0.5*abs(x)-0.25}; \end{axis} \end{tikzpicture} \caption{Fonction convexe et quadratique} \end{figure} Comme précédemment on utilise différente fonction de régularisation. \begin{itemize} \item Rappel à un objet connu \[ \mathcal{R}(x) = \Phi_s(\vec{x}-\vec{x}_\infty) \] \item Terme séparable \[ \mathcal{R}(x) = \Phi_s(\vec{x}) \] \item Terme de différences (mesure de régularité) \[ \mathcal{R}(x) = \sum_{i}^{} \phi_s(x_{i+1}-x_i) = \Phi_s(\vec{D}\vec{x}) \] \end{itemize} \section{Caractérisation statistique des estimateurs} \emph{cf. UE 451 et poly} \section{Interprétation bayésienne} \subsection{Vraisemblance} \begin{defin} En choisissant une ddp pour le bruit on a: \[ f(\vec{y}|\vec{x}) =k_0 \exp\left[ \frac{1}{2\sigma_b^2} \|\vec{y-Hx}\|^2\right] \] Comme en pratique on connais $\vec{y}$ on a une fonction de $\vec{x}$ et $\sigma_b^2$. Que l'on appelle fonction de vraisemblance. \end{defin} \begin{defin} \begin{itemize} \item \emph{Loi a priori} \[ f(\vec{x}|\sigma_0^2,\sigma_1^2)= k_1 exp\left[\frac{1}{2\sigma_1^2} \|\vec{Dx}\|^2 - \frac{1}{2\sigma_0^2} \|x\|^2\right] \] La matrice $D$ correspond à ?? \item \emph{Loi a posteriori} À partir de la règle de Bayes: \[ f(\vec{x}|\vec{y},\sigma_b,\sigma_1,\sigma_0) = \frac{f(\vec{y}|\vec{x})f(\vec{x}|\sigma_0,\sigma_1)}{f(\vec{y}|\sigma_b^2,\sigma_0^2,\sigma_1^2)} \] La loi a posteriori rassemble toute l'information que l'on a sur $\vec{x}$ \end{itemize} \end{defin} \subsection{Vraisemblance gaussienne} \subsection{Vraisemblance laplacienne} \section{Application à un cas simple d'observation multiple} \section{Application à la déconvolution problème d'optimisation} \section{Application de ma méthodologie bayésienne} \end{document} %%% Local Variables: %%% mode: latex %%% TeX-master: "main" %%% End: