2019-03-13 16:26:34 +01:00
\documentclass [main.tex] { subfiles}
\begin { document}
\emph { le poly distribué est très bien fait, ici il n'y aura que des prise de note et l'essentiel du cours}
\section { Philosophie et difficultés}
\subsection { Introduction}
\begin { figure} [H]
\centering
\begin { tikzpicture}
\sbEntree { x}
\sbBlocL { H} { H} { x}
\sbSumh { sum} { H}
\sbRelier { H} { sum}
\sbSortie { Y} { sum}
\sbRelier { x} { H}
\sbRelier { sum} { Y}
\sbDecaleNoeudy [-3] { sum} { b}
\sbRelier { b} { sum}
\node [above] at (b){ $ b $ } ;
\node [left] at(x){ $ x $ } ;
\node [right] at(Y){ $ y $ } ;
\end { tikzpicture}
\caption { Modélisation du problème direct}
\end { figure}
\paragraph { Méthode}
On fait des hypothèse sur $ x $ pour déterminer $ \hat { x } $ qui permette de reconstituer un $ y $ proche de celui mesuré.
On a une connaissance parfaite des hypothèses que l'on a fait.
\subsection { Problème mal posé}
\begin { defin}
Les \emph { Condition de Hadamard} permettent de savoir si un problème est bien posé.
\begin { itemize}
\item L'existence d'une solution quelques soit l'ensemble des donneés $ { \cal Y } = Im ( H ) $
\item L'unicité: $ \Ker ( H ) = \{ 0 \} $
\item Continuité :lorsque l'erreur $ \delta y $ tend vers 0 ,$ \delta x $ tend aussi vers 0.
\end { itemize}
\end { defin}
\subsection { Discrétisation et linéarisation}
Pour $ x \in \R ^ M $ et $ y \in \R ^ N $ on considère que $ H $ est un opérateur linéaire.
\begin { prop}
On note $ p = rg ( H ) $
\begin { itemize}
\item $ p = N = M $ Alors $ H $ bijectif, $ \vec { \hat { x } } = H ^ { - 1 } \vec { y } $ .
\item $ p <M $ pas d'unicité mais on a :
\[
\vec { \hat { x} } =(\vec { H} ^ t(\vec { HH} ^ t)^ { -1} )\vec { y}
\]
\item $ p>M $ pas d'existance mais on peux trouver l'inverse généralisé
\[
\vec { \hat { x} } = (\vec { H} ^ t\vec { H} )^ { -1} \vec { H} ^ t\vec { y}
\]
\end { itemize}
\end { prop}
\newcommand { \vertiii } [1]{ { \left \vert \kern -0.25ex\left \vert \kern -0.25ex\left \vert #1
\right \vert \kern -0.25ex\right \vert \kern -0.25ex\right \vert } }
\paragraph { Conditionnement de la matrice}
En ajoutant une erreur $ \delta \vec { x } $ a$ \hat { \vec { x } } $ on peux calculer comment la matrice $ H $ ``amplifie le bruit''
\begin { defin}
À partir de l'inverse généralisé on a :
\[
\| \delta x \| \leq \vertiii { (\vec { H} ^ t\vec { H} )^ { -1} } \vertiii { \vec { H} ^ t}
\]
avec $ \vertiii { \vec { H } } = \sqrt { \max \{ Sp ( \vec { H } ) \} } $
Alors on défini le nombre de condition:
\[
\delta x \le c \delta y
\]
Avec :
\[
c =\sqrt { \frac { \lambda _ { max} } { \lambda _ { min} } }
\]
\end { defin}
Si il y a un mauvais conditionnement, le bruit (qui est presente sur toutes les composantes de la base modale) est amplifié de manière disproportionnées sur certaine composantes.
\paragraph { Décomposition en valeur singulière tronquées} On réduit la matrice à ces plus grandes valeurs propres pour réduire le conditionnement
\[
\tilde { \vec { H} } = \vec { U_ t\Lambda _ tV_ t}
\]
L'estimateur devient :
\[
\hat { \vec { x} } = (\tilde { \vec { H} ^ t} \tilde { \vec { H} } )^ { -1} \tilde { \vec { H} ^ t} \vec { y}
\]
\section { Quelques méthode d'inversion classique}
\section { Caractérisation statistique des estimateurs}
\section { Interprétation bayésienne}
\section { Application à un cas simple d'observation multiple}
\section { Application à la déconvolution problème d'optimisation}
2019-03-14 17:58:28 +01:00
\section { Application de ma méthodologie bayésienne}
2019-03-13 16:26:34 +01:00
\end { document}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "main"
%%% End: