2019-03-13 16:26:34 +01:00
\documentclass [main.tex] { subfiles}
\begin { document}
\emph { le poly distribué est très bien fait, ici il n'y aura que des prise de note et l'essentiel du cours}
\section { Philosophie et difficultés}
\subsection { Introduction}
\begin { figure} [H]
\centering
\begin { tikzpicture}
\sbEntree { x}
\sbBlocL { H} { H} { x}
\sbSumh { sum} { H}
\sbRelier { H} { sum}
\sbSortie { Y} { sum}
\sbRelier { x} { H}
\sbRelier { sum} { Y}
\sbDecaleNoeudy [-3] { sum} { b}
\sbRelier { b} { sum}
\node [above] at (b){ $ b $ } ;
\node [left] at(x){ $ x $ } ;
\node [right] at(Y){ $ y $ } ;
\end { tikzpicture}
\caption { Modélisation du problème direct}
\end { figure}
\paragraph { Méthode}
On fait des hypothèse sur $ x $ pour déterminer $ \hat { x } $ qui permette de reconstituer un $ y $ proche de celui mesuré.
On a une connaissance parfaite des hypothèses que l'on a fait.
\subsection { Problème mal posé}
\begin { defin}
Les \emph { Condition de Hadamard} permettent de savoir si un problème est bien posé.
\begin { itemize}
\item L'existence d'une solution quelques soit l'ensemble des donneés $ { \cal Y } = Im ( H ) $
\item L'unicité: $ \Ker ( H ) = \{ 0 \} $
\item Continuité :lorsque l'erreur $ \delta y $ tend vers 0 ,$ \delta x $ tend aussi vers 0.
\end { itemize}
\end { defin}
\subsection { Discrétisation et linéarisation}
Pour $ x \in \R ^ M $ et $ y \in \R ^ N $ on considère que $ H $ est un opérateur linéaire.
\begin { prop}
On note $ p = rg ( H ) $
\begin { itemize}
\item $ p = N = M $ Alors $ H $ bijectif, $ \vec { \hat { x } } = H ^ { - 1 } \vec { y } $ .
\item $ p <M $ pas d'unicité mais on a :
\[
2019-03-22 09:47:10 +01:00
\vec { \hat { x} } =(\vec { H} ^ T(\vec { HH} ^ T)^ { -1} )\vec { y}
2019-03-13 16:26:34 +01:00
\]
\item $ p>M $ pas d'existance mais on peux trouver l'inverse généralisé
\[
2019-03-22 09:47:10 +01:00
\vec { \hat { x} } = (\vec { H} ^ T\vec { H} )^ { -1} \vec { H} ^ T\vec { y}
2019-03-13 16:26:34 +01:00
\]
\end { itemize}
\end { prop}
\newcommand { \vertiii } [1]{ { \left \vert \kern -0.25ex\left \vert \kern -0.25ex\left \vert #1
\right \vert \kern -0.25ex\right \vert \kern -0.25ex\right \vert } }
\paragraph { Conditionnement de la matrice}
En ajoutant une erreur $ \delta \vec { x } $ a$ \hat { \vec { x } } $ on peux calculer comment la matrice $ H $ ``amplifie le bruit''
\begin { defin}
À partir de l'inverse généralisé on a :
\[
2019-03-22 09:47:10 +01:00
\| \delta x \| \leq \vertiii { (\vec { H} ^ T\vec { H} )^ { -1} } \vertiii { \vec { H} ^ T}
2019-03-13 16:26:34 +01:00
\]
avec $ \vertiii { \vec { H } } = \sqrt { \max \{ Sp ( \vec { H } ) \} } $
Alors on défini le nombre de condition:
\[
\delta x \le c \delta y
\]
Avec :
\[
c =\sqrt { \frac { \lambda _ { max} } { \lambda _ { min} } }
\]
\end { defin}
Si il y a un mauvais conditionnement, le bruit (qui est presente sur toutes les composantes de la base modale) est amplifié de manière disproportionnées sur certaine composantes.
\paragraph { Décomposition en valeur singulière tronquées} On réduit la matrice à ces plus grandes valeurs propres pour réduire le conditionnement
\[
\tilde { \vec { H} } = \vec { U_ t\Lambda _ tV_ t}
\]
L'estimateur devient :
\[
2019-03-22 09:47:10 +01:00
\hat { \vec { x} } = (\tilde { \vec { H} ^ T} \tilde { \vec { H} } )^ { -1} \tilde { \vec { H} ^ T} \vec { y}
2019-03-13 16:26:34 +01:00
\]
\section { Quelques méthode d'inversion classique}
2019-03-22 09:47:10 +01:00
\subsection { Estimateur des moindres carrés}
\begin { prop}
L'estimateur des moindres carré cherche àç minimiser la norme quadratique:
\[
\hat { \vec { x} } _ { MC} = \arg \min \| \vec { y-Hx} \| _ 2^ 2 = (\vec { H} ^ T\vec { H} )^ { -1} \vec { H} ^ { T} \vec { y}
\]
\end { prop}
\subsection { Estimateur des moindres carrés régularisé}
\emph { cf. UE 451 et poly}
On veux améliorer le conditionnement de la matrice.
\begin { prop}
On modifie la fonction de cout des moindres carrés
\[
Q_ { MCR} = \| \vec { y-Hx} \| _ 2^ 2 + \mu \mathcal { R} (\vec { x} )
\]
\end { prop}
\subsubsection { Régularisation quadratique}
Plusieurs régularisation classiques sont possibles:
\begin { itemize}
\item Rappel à un objet connu
\[
\mathcal { R} (x) = (\vec { x} -\vec { x} _ \infty )^ T(\vec { x} -\vec { x} _ \infty )
\]
\item Terme séparable
\[
\mathcal { R} (x) = \vec { x} ^ T\vec { x}
\]
\item Terme de différences (mesure de régularité)
\[
\mathcal { R} (x) = \sum _ { i} ^ { } (x_ { i+1} -x_ i)^ 2 = \vec { x} ^ T\vec { D} ^ T\vec { D} \vec { x}
\]
\end { itemize}
\subsubsection { Régularisation convexe différentiable}
Pour pénaliser de moins fortes valeurs on peux choisir une autre fonction de cout comme la fonction de Hubert (ou terme $ L _ 2 L _ 1 $ )
\begin { defin}
On appelle fonction de Huber
\[ \phi _ s ( \tau ) =
\begin { cases}
\tau ^ 2 & |\tau |< s \\
2 s|\tau |-s^ 2 & |\tau | \ge s
\end { cases}
\]
Et sa généralisation vectorielle:
\[
\vec { \Phi } = \sum _ { } ^ { } \phi _ s(x_ n)
\]
\end { defin}
\begin { figure} [H]
\centering
\begin { tikzpicture}
\pgfplotsset { grid style={ dotted,gray} }
\begin { axis}
[axis lines = middle,
domain=-2:2,grid,
]
\addplot [black,dashed] { x^ 2} ;
\addplot [black,domain=-0.5:0.5] { x^ 2} ;
\addplot [black,domain=-2:-0.5] { 2*0.5*abs(x)-0.25} ;
\addplot [black,domain=0.5:2] { 2*0.5*abs(x)-0.25} ;
\end { axis}
\end { tikzpicture}
\caption { Fonction convexe et quadratique}
\end { figure}
Comme précédemment on utilise différente fonction de régularisation.
\begin { itemize}
\item Rappel à un objet connu
\[
\mathcal { R} (x) = \Phi _ s(\vec { x} -\vec { x} _ \infty )
\]
\item Terme séparable
\[
\mathcal { R} (x) = \Phi _ s(\vec { x} )
\]
\item Terme de différences (mesure de régularité)
\[
\mathcal { R} (x) = \sum _ { i} ^ { } \phi _ s(x_ { i+1} -x_ i) = \Phi _ s(\vec { D} \vec { x} )
\]
\end { itemize}
2019-03-13 16:26:34 +01:00
\section { Caractérisation statistique des estimateurs}
2019-03-22 09:47:10 +01:00
\emph { cf. UE 451 et poly}
2019-03-13 16:26:34 +01:00
\section { Interprétation bayésienne}
2019-03-22 09:47:10 +01:00
\subsection { Vraisemblance}
\begin { defin}
En choisissant une ddp pour le bruit on a:
\[
f(\vec { y} |\vec { x} ) =k_ 0 \exp \left [ \frac{1}{2\sigma_b^2} \|\vec{y-Hx}\|^2\right]
\]
Comme en pratique on connais $ \vec { y } $ on a une fonction de $ \vec { x } $ et $ \sigma _ b ^ 2 $ . Que l'on appelle fonction de vraisemblance.
\end { defin}
\begin { defin}
\begin { itemize}
\item \emph { Loi a priori}
\[
f(\vec { x} |\sigma _ 0^ 2,\sigma _ 1^ 2)= k_ 1 exp\left [\frac{1}{2\sigma_1^2} \|\vec{Dx}\|^2 - \frac{1}{2\sigma_0^2} \|x\|^2\right]
\]
La matrice $ D $ correspond à ??
\item \emph { Loi a posteriori}
À partir de la règle de Bayes:
\[
f(\vec { x} |\vec { y} ,\sigma _ b,\sigma _ 1,\sigma _ 0) = \frac { f(\vec { y} |\vec { x} )f(\vec { x} |\sigma _ 0,\sigma _ 1)} { f(\vec { y} |\sigma _ b^ 2,\sigma _ 0^ 2,\sigma _ 1^ 2)}
\]
La loi a posteriori rassemble toute l'information que l'on a sur $ \vec { x } $
\end { itemize}
\end { defin}
\subsection { Vraisemblance gaussienne}
\subsection { Vraisemblance laplacienne}
2019-03-13 16:26:34 +01:00
\section { Application à un cas simple d'observation multiple}
\section { Application à la déconvolution problème d'optimisation}
2019-03-14 17:58:28 +01:00
\section { Application de ma méthodologie bayésienne}
2019-03-13 16:26:34 +01:00
\end { document}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "main"
%%% End: