110 lines
3.3 KiB
TeX
110 lines
3.3 KiB
TeX
\documentclass[main.tex]{subfiles}
|
|
\begin{document}
|
|
\emph{le poly distribué est très bien fait, ici il n'y aura que des prise de note et l'essentiel du cours}
|
|
\section{Philosophie et difficultés}
|
|
\subsection{Introduction}
|
|
|
|
\begin{figure}[H]
|
|
\centering
|
|
\begin{tikzpicture}
|
|
\sbEntree{x}
|
|
\sbBlocL{H}{H}{x}
|
|
\sbSumh{sum}{H}
|
|
\sbRelier{H}{sum}
|
|
\sbSortie{Y}{sum}
|
|
\sbRelier{x}{H}
|
|
\sbRelier{sum}{Y}
|
|
\sbDecaleNoeudy[-3]{sum}{b}
|
|
\sbRelier{b}{sum}
|
|
\node[above] at (b){$b$};
|
|
\node[left]at(x){$x$};
|
|
\node[right]at(Y){$y$};
|
|
\end{tikzpicture}
|
|
\caption{Modélisation du problème direct}
|
|
\end{figure}
|
|
|
|
\paragraph{Méthode}
|
|
On fait des hypothèse sur $x$ pour déterminer $\hat{x}$ qui permette de reconstituer un $y$ proche de celui mesuré.
|
|
|
|
On a une connaissance parfaite des hypothèses que l'on a fait.
|
|
|
|
\subsection{Problème mal posé}
|
|
\begin{defin}
|
|
Les \emph{Condition de Hadamard} permettent de savoir si un problème est bien posé.
|
|
\begin{itemize}
|
|
\item L'existence d'une solution quelques soit l'ensemble des donneés ${\cal Y} = Im(H)$
|
|
\item L'unicité: $\Ker(H)=\{0\}$
|
|
\item Continuité :lorsque l'erreur $\delta y $tend vers 0 ,$\delta x $ tend aussi vers 0.
|
|
\end{itemize}
|
|
\end{defin}
|
|
\subsection{Discrétisation et linéarisation}
|
|
Pour $x\in\R^M $et $y\in\R^N$ on considère que $H$ est un opérateur linéaire.
|
|
\begin{prop}
|
|
On note $p=rg(H)$
|
|
\begin{itemize}
|
|
\item $ p = N=M$ Alors $H$ bijectif, $\vec{\hat{x}} = H^{-1}\vec{y}$.
|
|
\item $ p <M$ pas d'unicité mais on a :
|
|
\[
|
|
\vec{\hat{x}} =(\vec{H}^t(\vec{HH}^t)^{-1})\vec{y}
|
|
\]
|
|
\item $ p>M$ pas d'existance mais on peux trouver l'inverse généralisé
|
|
\[
|
|
\vec{\hat{x}} = (\vec{H}^t\vec{H})^{-1}\vec{H}^t\vec{y}
|
|
\]
|
|
\end{itemize}
|
|
\end{prop}
|
|
\newcommand{\vertiii}[1]{{\left\vert\kern-0.25ex\left\vert\kern-0.25ex\left\vert #1
|
|
\right\vert\kern-0.25ex\right\vert\kern-0.25ex\right\vert}}
|
|
\paragraph{Conditionnement de la matrice}
|
|
En ajoutant une erreur $\delta\vec{x}$ a$\hat{\vec{x}}$ on peux calculer comment la matrice $H$ ``amplifie le bruit''
|
|
|
|
\begin{defin}
|
|
À partir de l'inverse généralisé on a :
|
|
\[
|
|
\|\delta x \| \leq \vertiii{(\vec{H}^t\vec{H})^{-1}} \vertiii{\vec{H}^t}
|
|
\]
|
|
avec $\vertiii{\vec{H}} = \sqrt{\max\{Sp(\vec{H})\}}$
|
|
Alors on défini le nombre de condition:
|
|
\[
|
|
\delta x \le c \delta y
|
|
\]
|
|
Avec :
|
|
\[
|
|
c =\sqrt{\frac{\lambda_{max}}{\lambda_{min}}}
|
|
\]
|
|
\end{defin}
|
|
|
|
|
|
Si il y a un mauvais conditionnement, le bruit (qui est presente sur toutes les composantes de la base modale) est amplifié de manière disproportionnées sur certaine composantes.
|
|
|
|
\paragraph{Décomposition en valeur singulière tronquées} On réduit la matrice à ces plus grandes valeurs propres pour réduire le conditionnement
|
|
\[
|
|
\tilde{\vec{H}}= \vec{U_t\Lambda_tV_t}
|
|
\]
|
|
L'estimateur devient :
|
|
\[
|
|
\hat{\vec{x}} = (\tilde{\vec{H}^t}\tilde{\vec{H}})^{-1}\tilde{\vec{H}^t}\vec{y}
|
|
\]
|
|
|
|
\section{Quelques méthode d'inversion classique}
|
|
\section{Caractérisation statistique des estimateurs}
|
|
\section{Interprétation bayésienne}
|
|
\section{Application à un cas simple d'observation multiple}
|
|
\section{Application à la déconvolution problème d'optimisation}
|
|
\section{Application de ma méthodologie bayésienne}
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
\end{document}
|
|
|
|
%%% Local Variables:
|
|
%%% mode: latex
|
|
%%% TeX-master: "main"
|
|
%%% End:
|
|
|