^t to ^T
This commit is contained in:
parent
eea9cf16c2
commit
5aeb2021b4
1 changed files with 123 additions and 4 deletions
|
@ -45,11 +45,11 @@ Pour $x\in\R^M $et $y\in\R^N$ on considère que $H$ est un opérateur linéaire.
|
|||
\item $ p = N=M$ Alors $H$ bijectif, $\vec{\hat{x}} = H^{-1}\vec{y}$.
|
||||
\item $ p <M$ pas d'unicité mais on a :
|
||||
\[
|
||||
\vec{\hat{x}} =(\vec{H}^t(\vec{HH}^t)^{-1})\vec{y}
|
||||
\vec{\hat{x}} =(\vec{H}^T(\vec{HH}^T)^{-1})\vec{y}
|
||||
\]
|
||||
\item $ p>M$ pas d'existance mais on peux trouver l'inverse généralisé
|
||||
\[
|
||||
\vec{\hat{x}} = (\vec{H}^t\vec{H})^{-1}\vec{H}^t\vec{y}
|
||||
\vec{\hat{x}} = (\vec{H}^T\vec{H})^{-1}\vec{H}^T\vec{y}
|
||||
\]
|
||||
\end{itemize}
|
||||
\end{prop}
|
||||
|
@ -61,7 +61,7 @@ En ajoutant une erreur $\delta\vec{x}$ a$\hat{\vec{x}}$ on peux calculer comment
|
|||
\begin{defin}
|
||||
À partir de l'inverse généralisé on a :
|
||||
\[
|
||||
\|\delta x \| \leq \vertiii{(\vec{H}^t\vec{H})^{-1}} \vertiii{\vec{H}^t}
|
||||
\|\delta x \| \leq \vertiii{(\vec{H}^T\vec{H})^{-1}} \vertiii{\vec{H}^T}
|
||||
\]
|
||||
avec $\vertiii{\vec{H}} = \sqrt{\max\{Sp(\vec{H})\}}$
|
||||
Alors on défini le nombre de condition:
|
||||
|
@ -83,12 +83,131 @@ Si il y a un mauvais conditionnement, le bruit (qui est presente sur toutes les
|
|||
\]
|
||||
L'estimateur devient :
|
||||
\[
|
||||
\hat{\vec{x}} = (\tilde{\vec{H}^t}\tilde{\vec{H}})^{-1}\tilde{\vec{H}^t}\vec{y}
|
||||
\hat{\vec{x}} = (\tilde{\vec{H}^T}\tilde{\vec{H}})^{-1}\tilde{\vec{H}^T}\vec{y}
|
||||
\]
|
||||
|
||||
\section{Quelques méthode d'inversion classique}
|
||||
\subsection{Estimateur des moindres carrés}
|
||||
\begin{prop}
|
||||
L'estimateur des moindres carré cherche àç minimiser la norme quadratique:
|
||||
\[
|
||||
\hat{\vec{x}}_{MC} = \arg\min \| \vec{y-Hx}\|_2^2 = (\vec{H}^T\vec{H})^{-1}\vec{H}^{T}\vec{y}
|
||||
\]
|
||||
\end{prop}
|
||||
|
||||
\subsection{Estimateur des moindres carrés régularisé}
|
||||
|
||||
\emph{cf. UE 451 et poly}
|
||||
|
||||
|
||||
On veux améliorer le conditionnement de la matrice.
|
||||
\begin{prop}
|
||||
On modifie la fonction de cout des moindres carrés
|
||||
\[
|
||||
Q_{MCR}= \| \vec{y-Hx}\|_2^2 + \mu \mathcal{R}(\vec{x})
|
||||
\]
|
||||
\end{prop}
|
||||
|
||||
\subsubsection{Régularisation quadratique}
|
||||
Plusieurs régularisation classiques sont possibles:
|
||||
|
||||
\begin{itemize}
|
||||
\item Rappel à un objet connu
|
||||
\[
|
||||
\mathcal{R}(x) = (\vec{x}-\vec{x}_\infty)^T(\vec{x}-\vec{x}_\infty)
|
||||
\]
|
||||
\item Terme séparable
|
||||
\[
|
||||
\mathcal{R}(x) = \vec{x}^T\vec{x}
|
||||
\]
|
||||
\item Terme de différences (mesure de régularité)
|
||||
\[
|
||||
\mathcal{R}(x) = \sum_{i}^{}(x_{i+1}-x_i)^2 = \vec{x}^T\vec{D}^T\vec{D}\vec{x}
|
||||
\]
|
||||
\end{itemize}
|
||||
|
||||
\subsubsection{Régularisation convexe différentiable}
|
||||
Pour pénaliser de moins fortes valeurs on peux choisir une autre fonction de cout comme la fonction de Hubert (ou terme $L_2L_1$)
|
||||
\begin{defin}
|
||||
On appelle fonction de Huber
|
||||
\[\phi_s(\tau) =
|
||||
\begin{cases}
|
||||
\tau^2 & |\tau|< s \\
|
||||
2 s|\tau|-s^2 & |\tau| \ge s
|
||||
\end{cases}
|
||||
\]
|
||||
Et sa généralisation vectorielle:
|
||||
\[
|
||||
\vec{\Phi} = \sum_{}^{}\phi_s(x_n)
|
||||
\]
|
||||
\end{defin}
|
||||
\begin{figure}[H]
|
||||
\centering
|
||||
\begin{tikzpicture}
|
||||
\pgfplotsset{grid style={dotted,gray}}
|
||||
\begin{axis}
|
||||
[axis lines = middle,
|
||||
domain=-2:2,grid,
|
||||
]
|
||||
\addplot[black,dashed]{x^2};
|
||||
\addplot[black,domain=-0.5:0.5]{x^2};
|
||||
\addplot[black,domain=-2:-0.5]{2*0.5*abs(x)-0.25};
|
||||
\addplot[black,domain=0.5:2]{2*0.5*abs(x)-0.25};
|
||||
\end{axis}
|
||||
\end{tikzpicture}
|
||||
\caption{Fonction convexe et quadratique}
|
||||
\end{figure}
|
||||
Comme précédemment on utilise différente fonction de régularisation.
|
||||
\begin{itemize}
|
||||
\item Rappel à un objet connu
|
||||
\[
|
||||
\mathcal{R}(x) = \Phi_s(\vec{x}-\vec{x}_\infty)
|
||||
\]
|
||||
\item Terme séparable
|
||||
\[
|
||||
\mathcal{R}(x) = \Phi_s(\vec{x})
|
||||
\]
|
||||
\item Terme de différences (mesure de régularité)
|
||||
\[
|
||||
\mathcal{R}(x) = \sum_{i}^{} \phi_s(x_{i+1}-x_i) = \Phi_s(\vec{D}\vec{x})
|
||||
\]
|
||||
\end{itemize}
|
||||
|
||||
|
||||
\section{Caractérisation statistique des estimateurs}
|
||||
\emph{cf. UE 451 et poly}
|
||||
\section{Interprétation bayésienne}
|
||||
|
||||
\subsection{Vraisemblance}
|
||||
\begin{defin}
|
||||
En choisissant une ddp pour le bruit on a:
|
||||
\[
|
||||
f(\vec{y}|\vec{x}) =k_0 \exp\left[ \frac{1}{2\sigma_b^2} \|\vec{y-Hx}\|^2\right]
|
||||
\]
|
||||
Comme en pratique on connais $\vec{y}$ on a une fonction de $\vec{x}$ et $\sigma_b^2$. Que l'on appelle fonction de vraisemblance.
|
||||
\end{defin}
|
||||
\begin{defin}
|
||||
\begin{itemize}
|
||||
\item \emph{Loi a priori}
|
||||
\[
|
||||
f(\vec{x}|\sigma_0^2,\sigma_1^2)= k_1 exp\left[\frac{1}{2\sigma_1^2} \|\vec{Dx}\|^2 - \frac{1}{2\sigma_0^2} \|x\|^2\right]
|
||||
\]
|
||||
La matrice $D$ correspond à ??
|
||||
\item \emph{Loi a posteriori}
|
||||
À partir de la règle de Bayes:
|
||||
\[
|
||||
f(\vec{x}|\vec{y},\sigma_b,\sigma_1,\sigma_0) = \frac{f(\vec{y}|\vec{x})f(\vec{x}|\sigma_0,\sigma_1)}{f(\vec{y}|\sigma_b^2,\sigma_0^2,\sigma_1^2)}
|
||||
\]
|
||||
La loi a posteriori rassemble toute l'information que l'on a sur $\vec{x}$
|
||||
\end{itemize}
|
||||
\end{defin}
|
||||
\subsection{Vraisemblance gaussienne}
|
||||
|
||||
|
||||
\subsection{Vraisemblance laplacienne}
|
||||
|
||||
|
||||
|
||||
\section{Application à un cas simple d'observation multiple}
|
||||
\section{Application à la déconvolution problème d'optimisation}
|
||||
\section{Application de ma méthodologie bayésienne}
|
||||
|
|
Loading…
Reference in a new issue