\documentclass[main.tex]{subfiles}
\begin{document}
\emph{le poly distribué est très bien fait, ici il n'y aura que des prise de note et l'essentiel du cours}
\section{Philosophie et difficultés}
\subsection{Introduction}

\begin{figure}[H]
  \centering
  \begin{tikzpicture}
    \sbEntree{x}
    \sbBlocL{H}{H}{x}
    \sbSumh{sum}{H}
    \sbRelier{H}{sum}
    \sbSortie{Y}{sum}
    \sbRelier{x}{H}
    \sbRelier{sum}{Y}
    \sbDecaleNoeudy[-3]{sum}{b}
    \sbRelier{b}{sum}
    \node[above] at (b){$b$};
    \node[left]at(x){$x$};
    \node[right]at(Y){$y$};
  \end{tikzpicture}
  \caption{Modélisation du problème direct}
\end{figure}

\paragraph{Méthode}
On fait des hypothèse sur $x$ pour déterminer $\hat{x}$ qui permette de reconstituer un $y$ proche de celui mesuré.

On a une connaissance parfaite des hypothèses que l'on a fait.

\subsection{Problème mal posé}
\begin{defin}
  Les \emph{Condition de Hadamard} permettent de savoir si un problème est bien posé.
  \begin{itemize}
  \item L'existence d'une solution quelques soit l'ensemble des donneés ${\cal Y} = Im(H)$
  \item L'unicité: $\Ker(H)=\{0\}$
  \item Continuité :lorsque l'erreur $\delta y $tend vers 0 ,$\delta x $ tend aussi vers 0.
  \end{itemize}
\end{defin}
\subsection{Discrétisation et linéarisation}
Pour $x\in\R^M $et $y\in\R^N$ on considère que $H$ est un opérateur linéaire.
\begin{prop}
  On note $p=rg(H)$
  \begin{itemize}
  \item $ p = N=M$ Alors $H$ bijectif, $\vec{\hat{x}} = H^{-1}\vec{y}$.
  \item $ p <M$ pas d'unicité mais on a :
    \[
      \vec{\hat{x}} =(\vec{H}^T(\vec{HH}^T)^{-1})\vec{y}
    \]
  \item $ p>M$ pas d'existance mais on peux trouver l'inverse généralisé
    \[
      \vec{\hat{x}} = (\vec{H}^T\vec{H})^{-1}\vec{H}^T\vec{y}
    \]
  \end{itemize}
\end{prop}
\newcommand{\vertiii}[1]{{\left\vert\kern-0.25ex\left\vert\kern-0.25ex\left\vert #1 
    \right\vert\kern-0.25ex\right\vert\kern-0.25ex\right\vert}}
\paragraph{Conditionnement de la matrice}
En ajoutant une erreur $\delta\vec{x}$ a$\hat{\vec{x}}$ on peux calculer comment la matrice $H$ ``amplifie le bruit''

\begin{defin}
  À partir de l'inverse généralisé on a :
  \[
    \|\delta x \| \leq \vertiii{(\vec{H}^T\vec{H})^{-1}} \vertiii{\vec{H}^T}
  \]
  avec $\vertiii{\vec{H}} = \sqrt{\max\{Sp(\vec{H})\}}$
  Alors on défini le nombre de condition:
  \[
    \delta x \le c \delta y
  \]
  Avec :
  \[
    c =\sqrt{\frac{\lambda_{max}}{\lambda_{min}}}
  \]
\end{defin}


Si il y a un mauvais conditionnement, le bruit (qui est presente sur toutes les composantes de la base modale) est amplifié de manière disproportionnées sur certaine composantes.

\paragraph{Décomposition en valeur singulière tronquées} On réduit la matrice à ces plus grandes valeurs propres pour réduire le conditionnement
\[
  \tilde{\vec{H}}= \vec{U_t\Lambda_tV_t}
\]
L'estimateur devient :
\[
  \hat{\vec{x}} = (\tilde{\vec{H}^T}\tilde{\vec{H}})^{-1}\tilde{\vec{H}^T}\vec{y}
\]

\section{Quelques méthode d'inversion classique}
\subsection{Estimateur des moindres carrés}
\begin{prop}
  L'estimateur des moindres carré cherche àç minimiser la norme quadratique:
  \[
\hat{\vec{x}}_{MC} = \arg\min \| \vec{y-Hx}\|_2^2 = (\vec{H}^T\vec{H})^{-1}\vec{H}^{T}\vec{y}
  \]
\end{prop}

\subsection{Estimateur des moindres carrés régularisé}

\emph{cf. UE 451 et poly}


On veux améliorer le conditionnement de la matrice.
\begin{prop}
  On modifie la fonction de cout des moindres carrés
  \[
    Q_{MCR}= \| \vec{y-Hx}\|_2^2 + \mu \mathcal{R}(\vec{x})
  \]
\end{prop}

\subsubsection{Régularisation quadratique}
Plusieurs régularisation classiques sont possibles:

\begin{itemize}
\item Rappel à un objet connu
  \[
    \mathcal{R}(x) = (\vec{x}-\vec{x}_\infty)^T(\vec{x}-\vec{x}_\infty)
  \]
\item Terme séparable
  \[
    \mathcal{R}(x) = \vec{x}^T\vec{x}
  \]
\item Terme de différences (mesure de régularité)
  \[
    \mathcal{R}(x) = \sum_{i}^{}(x_{i+1}-x_i)^2 = \vec{x}^T\vec{D}^T\vec{D}\vec{x}
  \]
\end{itemize}

\subsubsection{Régularisation convexe différentiable}
Pour pénaliser de moins fortes valeurs on peux choisir une autre fonction de cout comme la fonction de Hubert (ou terme $L_2L_1$)
\begin{defin}
  On appelle fonction de Huber
\[\phi_s(\tau) =
  \begin{cases}
    \tau^2 & |\tau|< s \\
    2 s|\tau|-s^2 & |\tau| \ge s
  \end{cases}
\]
Et sa généralisation vectorielle:
\[
  \vec{\Phi} = \sum_{}^{}\phi_s(x_n)
\]
\end{defin}
\begin{figure}[H]
  \centering
  \begin{tikzpicture}
    \pgfplotsset{grid style={dotted,gray}}
    \begin{axis}
      [axis lines = middle,
      domain=-2:2,grid,
      ]
      \addplot[black,dashed]{x^2};
      \addplot[black,domain=-0.5:0.5]{x^2};
      \addplot[black,domain=-2:-0.5]{2*0.5*abs(x)-0.25};
      \addplot[black,domain=0.5:2]{2*0.5*abs(x)-0.25};
    \end{axis}
  \end{tikzpicture}
  \caption{Fonction convexe et quadratique}
\end{figure}
Comme précédemment on utilise différente fonction de régularisation.
\begin{itemize}
\item Rappel à un objet connu
  \[
    \mathcal{R}(x) = \Phi_s(\vec{x}-\vec{x}_\infty)
  \]
\item Terme séparable
  \[
    \mathcal{R}(x) = \Phi_s(\vec{x})
  \]
\item Terme de différences (mesure de régularité)
  \[
    \mathcal{R}(x) = \sum_{i}^{} \phi_s(x_{i+1}-x_i) = \Phi_s(\vec{D}\vec{x})
  \]
\end{itemize}


\section{Caractérisation statistique des estimateurs}
\emph{cf. UE 451 et poly}
\section{Interprétation bayésienne}

\subsection{Vraisemblance}
\begin{defin}
  En choisissant une ddp pour le bruit on a:
  \[
    f(\vec{y}|\vec{x}) =k_0 \exp\left[ \frac{1}{2\sigma_b^2} \|\vec{y-Hx}\|^2\right]
  \]
  Comme en pratique on connais $\vec{y}$ on a une fonction de $\vec{x}$ et $\sigma_b^2$. Que l'on appelle fonction de vraisemblance.
\end{defin}
\begin{defin}
  \begin{itemize}
  \item \emph{Loi a priori}
  \[
    f(\vec{x}|\sigma_0^2,\sigma_1^2)= k_1 exp\left[\frac{1}{2\sigma_1^2} \|\vec{Dx}\|^2 - \frac{1}{2\sigma_0^2} \|x\|^2\right]
  \]
  La matrice $D$ correspond à ??
\item \emph{Loi a posteriori}
  À partir de la règle de Bayes:
  \[
    f(\vec{x}|\vec{y},\sigma_b,\sigma_1,\sigma_0) = \frac{f(\vec{y}|\vec{x})f(\vec{x}|\sigma_0,\sigma_1)}{f(\vec{y}|\sigma_b^2,\sigma_0^2,\sigma_1^2)}
  \]
  La loi a posteriori rassemble toute l'information que l'on a  sur $\vec{x}$
\end{itemize}
\end{defin}
\subsection{Vraisemblance gaussienne}


\subsection{Vraisemblance laplacienne}



\section{Application à un cas simple d'observation multiple}
\section{Application à la déconvolution problème d'optimisation}
\section{Application de ma méthodologie bayésienne}









\end{document}

%%% Local Variables:
%%% mode: latex
%%% TeX-master: "main"
%%% End: