starting 414

This commit is contained in:
Pierre-antoine Comby 2019-01-17 20:10:57 +01:00
parent 97d1ff4bbb
commit c41c145b0c
4 changed files with 1103 additions and 0 deletions

View file

@ -0,0 +1,373 @@
\documentclass[main.tex]{subfiles}
\renewcommand{\epsilon}{\varepsilon}
\begin{document}
\section{Introduction}
\emph{blabla ,les centrales nucléaire c'est 1GW , avec des machines synchrones. Les MCC sont pas utilisé en forte puissance. on préfère utiliser une machine synchrone ou une machine asynchrone (plus simple, moins cher,etc)}
La machine asynchrone fonctionne en moteur ou en alternateur.
Premier dépot déposé en 1888 par Nicolas Tesla.
Utilisation des différentes technologies de moteur (brushless, bobinés) en automobile et industrie (80\% des moteur de l'industrie sont des machines asynchrones)
\section{Principe de la machine asynchrone}
en anglais on parle de \emph{Induction Motor}.
On génère un champ magnétique tournant au stator
Le courant électrique est induit dans le rotor , pas besoin de mettre des balais ou de bobinage au rotor.
\subsection{Le stator triphasé}
\subsubsection{Champs tournant}
On a le schéma suivant, $n$ spires sont parcourues par un courant $i_{sa}$.
\begin{figure}[H]
\centering
\begin{subfigure}{0.5\textwidth}
\centering
\begin{tikzpicture}
\fill[gray!40,even odd rule] (0,0) circle(2.25) circle (3);
\fill[gray!20] (0,0) circle (2);
\draw[-latex,dash dot] (-4,0) -- (4,0);
\draw[-latex] (0,0) -- ++(30:4);
\draw[-latex] (1,0) arc(0:30:1) node[above]{$\theta$};
\draw (0,2.5)node[]{\small$\bigcirc\hspace{-0,75em}\bullet$}
(0,-2.5)node[]{{$\otimes$}};
\draw[->,densely dashed, thin,rounded corners=5pt] (0, 0.25) -- (2.75, 0.25) arc[start angle=5, end angle=175, radius=2.75]-- (0, 0.25);
\draw[->,densely dashed,thin,rounded corners=5pt] (0, -0.25) -- (2.75, -0.25) arc[start angle=-5, end angle=-175, radius=2.75] -- (0, -0.25);
\end{tikzpicture}
\subcaption{Schéma du stator (monophasé)}
\end{subfigure}%
\begin{subfigure}{0.5\textwidth}
\centering
\begin{tikzpicture}
\begin{axis}
[axis lines = middle,
xlabel=$\theta$,ylabel=$\epsilon_s$,
xmax=3,xmin=-3,ymin=-1.5,ymax=1.5,
samples=41,
xtick={-1,1},ytick=\empty,
xticklabels={$-\frac{\pi}{2}$, $\frac{\pi}{2}$}]
\addplot+[no marks] plot coordinates {(-2,-1) (-1,-1) (-1,1) (1,1) (1,-1) (2,-1)};
\addplot+[no marks,color=black, dashed] {cos(pi*deg(x)/2)};
\end{axis}
\end{tikzpicture}
\subcaption{Force magnétomotrice $\epsilon_s$}
\end{subfigure}
\caption{Champ tournant dans le stator}
\end{figure}
Avec le théorème d'ampère on a :
\begin{align*}
\oint \vec{H}.\vec{dl} &= n_s i_s\\
\underbrace{ \int H.dl}_{H_{fer}} &+ \underbrace{2H_c e}_{H_e} = n_s i_s\\
\intertext{Or on a: }
H_{mat.fer} &\ll H_{entrefer}
\intertext{Donc on a la force magnétomotrice}
\Aboxed{\epsilon_s = H_ee =\frac{n_si_s}{2}}
\end{align*}
On peux donc tracer :
La répartition des fils autour du rotor influe sur l'allure de la force magnétomotrice. Par exemple pour une répartition uniforme de $n/3$ spires par encoche :
\begin{figure}[H]
\centering
\begin{subfigure}{.5\textwidth}
\centering
\begin{tikzpicture}
\fill[gray!40,even odd rule] (0,0) circle(2.25) circle (3);
\fill[gray!20] (0,0) circle (2);
\draw[-latex,dash dot] (-4,0) -- (4,0);
\draw[-latex] (0,0) -- ++(30:4);
\draw[-latex] (1,0) arc(0:30:1) node[above]{$\theta$};
\draw (0.6,2.46)node[]{\small$\bigcirc\hspace{-0,75em}\bullet$}
(0.6,-2.46)node[]{{$\otimes$}};
\draw (0,2.5)node[]{\small$\bigcirc\hspace{-0,75em}\bullet$}
(0,-2.5)node[]{{$\otimes$}};
\draw (-0.6,2.46)node[]{\small$\bigcirc\hspace{-0,75em}\bullet$}
(-0.6,-2.46)node[]{{$\otimes$}};
\end{tikzpicture}
\subcaption{Schéma du stator (monophasé)}
\end{subfigure}%
\begin{subfigure}{0.5\linewidth}
\centering
\begin{tikzpicture}
\begin{axis}
[axis lines = middle,
xlabel=$\theta$,ylabel=$\epsilon_s$,
xmax=3,xmin=-3,ymin=-1.5,ymax=1.5,
samples=41,
xtick={-1,1},ytick=\empty,
xticklabels={$-\frac{\pi}{2}$, $\frac{\pi}{2}$}]
\addplot+[no marks] plot coordinates {(-2,-1) (-1.5,-1) (-1.5,-0.5) (-1,-0.5) (-1,0.5)(-0.5,0.5) (-0.5,1) (0.5,1) (0.5,0.5) (1,0.5)(1,-0.5) (1.5,-0.5) (1.5,-1)(2,-1)};
\addplot+[no marks,color=black, dashed] {cos(pi*deg(x)/2)};
\end{axis}
\end{tikzpicture}
\subcaption{Force magnétomotrice $\epsilon_s$}
\end{subfigure}
\caption{Approximation sinusoïdale du champ tournant}
\end{figure}
en répartissant les bobinage sur le rotor de manière sinusoïdales , on peux générée une force magnétomotrice sinusoïdale également.
\begin{rem}
On utilise despetit fils pour éviter l'effet de peau en alternatif, mais cela augmente la resistivité et la puissance dissipée par effet joule, rien n'est parfait.
\end{rem}
En utilisant un courant $i_s$ alternatif (à la pulsation $\omega$) on a une onde pulsante:
\[
\epsilon_s =\frac{n_si_{max}}{2}cos(\omega t)
\]
\begin{figure}[H]
\centering
\begin{tikzpicture}
\begin{axis}
[axis lines = middle,
xlabel=$\theta$,ylabel=$\epsilon_s$,
xmax=3,xmin=-3,ymin=-1.5,ymax=1.5,
samples=51,
xtick={-1,1},ytick={},
xticklabels={$-\frac{\pi}{2}$, $\frac{\pi}{2}$}]
\addplot+[no marks,color=black] {cos(pi*deg(x)/2)};
\addplot+[no marks,color=black, dashed] {0.2*cos(pi*deg(x)/2)};
\addplot+[no marks,color=black, dotted] {-0.5*cos(pi*deg(x)/2)};
\end{axis}
\end{tikzpicture}
\caption{Évolution d'une onde pulsante en fonction du temps}
\end{figure}
Dans le cas triphasé on répartis les enroulements de manière sinusoïdales (seule un tour de bobinage est représenté) parcourus par $i_{sa} ,i_{sb},i_{sc}$ :
\[
\begin{cases}
i_{sa}(t)=I\sqrt{2}\cos(\omega t) \\
i_{sb}(t)=I\sqrt{2}\cos(\omega t+ \frac{2\pi}{3}) \\
i_{sc}(t)=I\sqrt{2}\cos(\omega t-\frac{2\pi}{3})
\end{cases}
\text{ Soit }
\begin{cases}
\epsilon_{sa}(t) = \frac{n_si_s(t)}{2} \cos(\theta) \\
\epsilon_{sb}(t) = \frac{n_si_s(t)}{2} \cos(\theta-\frac{2\pi}{3}) \\
\epsilon_{sc}(t) = \frac{n_si_s(t)}{2} \cos(\theta+\frac{2\pi}{3}) \\
\end{cases}
\]
\begin{figure}[H]
\centering
\begin{tikzpicture}
\begin{axis}
[axis lines = middle,
xlabel=$\theta$,ylabel=${\epsilon_{sa},\epsilon_{sb},\epsilon_{sc}}$,
xmax=3,xmin=-3,ymin=-1.5,ymax=1.5,
samples=51,
xtick={-1,1},ytick={},
xticklabels={$-\frac{\pi}{2}$, $\frac{\pi}{2}$}]
\addplot+[no marks,color=black] {cos(pi*deg(x)/2)};
\addplot+[no marks,color=black, dashed] {cos(pi*deg(x)/2+120)};
\addplot+[no marks,color=black, dotted] {cos(pi*deg(x)/2-120)};
\end{axis}
\end{tikzpicture}
\caption{Évolution d'une onde pulsante en fonction du temps}
\end{figure}
Alors la force magnétomotrice totale vaut:
\begin{align*}
\epsilon_s &=\epsilon_a +\epsilon_b+\epsilon_c \\
&= \frac{n_sI\sqrt{2}}{2}\left(
\cos(\theta)\cos(\theta) + \cos(\omega t-\frac{2\pi}{3})\cos(\theta-\frac{2\pi}{3})
+\cos(\omega t-\frac{2\pi}{3})\cos(\theta-\frac{2\pi}{3})
\right)\\
\Aboxed{ &= \frac{3n_sI}{\sqrt{2}} \cos(\theta-\omega t)}
\end{align*}
On a créer un champ tournant , avec trois bobinage , le module de la force magnétomotrice est constant , son argument balaye tout l'espace.
\subsection{Rotor à une spire en court circuit}
\begin{figure}[H]
\begin{subfigure}{.5\textwidth}
\centering
\begin{tikzpicture}
\fill[gray!20,even odd rule] (0,0) circle(2.25) circle (3);
\fill[gray!10] (0,0) circle (2);
\draw[-latex,dash dot] (-4,0) -- (4,0);
\draw
(110:1.8)node[blue]{$\bigcirc\hspace{-0,75em}\bullet$} (110:-1.8)node[blue]{{\Large$\otimes$}};
\draw
(90:2.5)node[blue!50!black]{$\bigcirc\hspace{-0,75em}\bullet$} (90:-2.5)node[blue!50!black]{{\Large$\otimes$}}
(210:2.5)node[red!50!black]{$\bigcirc\hspace{-0,75em}\bullet$} (210:-2.5)node[red!50!black]{{\Large$\otimes$}}
(330:2.5)node[green!50!black]{$\bigcirc\hspace{-0,75em}\bullet$} (330:-2.5)node[green!50!black]{{\Large$\otimes$}};
\draw[-latex] (0,0) -- (20:3.5) ;
\draw[-latex] (3.2,0) arc(0:20:3.2) node[midway,right]{$\theta_r$};
\draw[thick,-latex] (0,0) -- (45:3.5)node[above]{$\overrightarrow{B_s}$};
\draw[-latex] (3.1,0) arc(0:45:3.1) node[near end, right]{$\theta_s$};
\end{tikzpicture}
\subcaption{Disposition du rotor (monophasé)}
\end{subfigure}%
\begin{subfigure}{.5\textwidth}
\centering
\begin{circuitikz}
\draw (0,0) to[V,v=$e$] ++(0,2) to[R,l=$R_r$] ++(0,2)-- ++(2,0) |-(0,0);
\end{circuitikz}
\caption{Schéma électrique du rotor en court circuit}
\end{subfigure}
\end{figure}
On a :
\begin{align*}
e&= -deriv{\Phi}{t} =R_r i_r
&= -L\deriv{i_r}{t}+B.n_rS_r\deriv{\theta_s-\theta_r}{t}\sin(\theta_s-\theta_r)\\
\end{align*}
Pour $\theta_s=\omega_st$ , position du champs statorique et $\theta_r = \Omega t+ \theta_{r_0}$ ,position du champ rotorique on a:
\[
e = -L\deriv{i_r}{t}+B.n_rS_r(\omega_s-\Omega)\sin((\omega_s-\Omega)t+\theta_{r_0})
\]
\subsection{Rotor à 3 spires en court circuit}
\begin{figure}[H]
\centering
\begin{subfigure}{0.5\textwidth}
\begin{tikzpicture}
\fill[gray!20,even odd rule] (0,0) circle(2.25) circle (3);
\fill[gray!10] (0,0) circle (2);
\draw[-latex,dash dot] (-4,0) -- (4,0);
\draw
(110:1.8)node[blue]{$\bigcirc\hspace{-0,75em}\bullet$} (110:-1.8)node[blue]{{\Large$\otimes$}}
(230:1.8)node[red]{$\bigcirc\hspace{-0,75em}\bullet$} (230:-1.8)node[red]{{\Large$\otimes$}}
(350:1.8)node[green]{$\bigcirc\hspace{-0,75em}\bullet$} (350:-1.8)node[green]{{\Large$\otimes$}};
\draw
(90:2.5)node[blue!50!black]{$\bigcirc\hspace{-0,75em}\bullet$} (90:-2.5)node[blue!50!black]{{\Large$\otimes$}}
(210:2.5)node[red!50!black]{$\bigcirc\hspace{-0,75em}\bullet$} (210:-2.5)node[red!50!black]{{\Large$\otimes$}}
(330:2.5)node[green!50!black]{$\bigcirc\hspace{-0,75em}\bullet$} (330:-2.5)node[green!50!black]{{\Large$\otimes$}};
\draw[-latex] (0,0) -- (20:3.5) ;
\draw[-latex] (3.2,0) arc(0:20:3.2) node[midway,right]{$\theta_r$};
\draw[very thick,-latex] (0,0) -- (45:3.5)node[above]{$\overrightarrow{B_s}$};
\draw[-latex] (3.1,0) arc(0:45:3.1) node[near end, right]{$\theta_s$};
\draw[very thick,-latex] (0,0) -- (-45:3.5)node[below]{$\overrightarrow{B_r}$};
\end{tikzpicture}
\subcaption{Rotor triphasé}
\end{subfigure}%
\begin{subfigure}{0.5\textwidth}
\begin{minipage}[h]{1.0\linewidth}
On a:
\begin{itemize}
\item Vitesse de rotation de $\overrightarrow{B_s}$ : $\omega_s$
\item Vitesse de rotation du rotor $\omega_r$
\item Vitesse de rotation de $\overrightarrow{B_s}$ dans le repère du rotor : $\omega_s-\omega_r$
\item Vitesse de rotation du champ $\overrightarrow{B_r}$ induit dans le rotor dans le repère du stator : $\omega_s$.
\end{itemize}
\begin{prop}
Le champ induit dans le rotor et le champ du stator tournent à la même vitesse, appelé \emph{la vitesse de synchronisme}
\end{prop}
\end{minipage}
\end{subfigure}
\end{figure}
\section{Modélisation de la machine asynchrone}
On considère une machine triphasé au rotor et au stator à une paire de pôle:
\begin{figure}[H]
\centering
\begin{circuitikz}
\draw[red] (0:1.5) node(As){} to[L,v=$V_{as}$,i^<=$i_{as}$,color=red] ++(0:2.5);
\draw[red] (120:1.5)node(Bs){} to[L,v=$V_{bs}$,i^<=$i_{bs}$,color=red] ++(120:2.5);
\draw[red] (240:1.5)node(Cs){} to[L,v=$V_{cs}$,i^<=$i_{cs}$,color=red] ++(240:2.5);
\draw[dashed] (As) -- (0,0) (Bs) --(0,0) (Cs) --(0,0);
\draw[blue] (35:1) node(Ar){} to[L,v^=$V_{ar}$,i_<=$i_{ar}$,color=blue] ++(35:2.5);
\draw[blue] (155:1)node(Br){} to[L,v^=$V_{br}$,i_<=$i_{br}$,color=blue] ++(155:2.5);
\draw[blue] (275:1)node(Cr){} to[L,v^=$V_{cr}$,i_<=$i_{cr}$,color=blue] ++(275:2.5);
\draw[dotted] (Ar) -- (0,0) (Br) --(0,0) (Cr) --(0,0);
\draw (0,0) circle(4);
\draw[dotted] (0,0) circle(3.5);
\draw[-latex] (4.2,0) arc(0:35:4) node[midway,right]{$\theta =\Omega t$};
\end{circuitikz}
\caption{Modèle électrique}
\paragraph{Hypothèses}
\begin{itemize}
\item Alimentation sinus triphasé en Régime Permanent
\item Rotor triphasé en court-circuit
\item Couplage en étoile des enroulements équilibrés
\item Fmm sinusoïdales, pas de saturation magnétiques
\end{itemize}
\end{figure}
$\omega_s$ pulsation des courants statorique
\subsection{Mise en équation}
\subsubsection{Équation statorique}
On a les équations suivantes pour le stator:
\begin{align*}
v_{as} &= R_s i_{as}(t)+\deriv[\Phi_{as}(t)]{t}\\
\Phi_{as}(t) &= L_{s} i_{as} + M_s(i_{bs}+i_{bs}) \\&\quad+M_0 (\cos(\theta)i_{ar}(t)+\cos(\theta+\frac{2\pi}{3})i_{br}(t)+\cos(\theta+\frac{2\pi}{3})i_{br}(t)+\cos(\theta-\frac{2\pi}{3})i_{cr}(t))\\
\Phi_{as}(t) &= (L_s-M_s) i_{as}(t)+\frac{3M_0I_r}{\sqrt{2}}\cos(\theta+\omega_rt+\phi_r+\theta_0) \\
\Phi_{as}(t) &= (L_s-M_s) i_{as}(t)+\frac{3M_0I_r}{\sqrt{2}}\cos(\omega_st+\phi_s)
\end{align*}
On en déduit donc (Dans le formalisme complexe de l'ARQS)
\[
\underline{V_{as}} = R_s \underline{I_s}+jL_{sc}\omega_s\underline{I_{as}}+j \frac{3}{2}M_0\omega_sI_r
\]
$I_r$ est à la pulsation $\omega_s$ !
\subsubsection{Équations rotoriques}
On fais les mêmes calculs pour le rotor :
\begin{align*}
v_{ar}(t) &= R_ri_{ar}(t) + \deriv[\Phi]{t}\\
\Phi_{ar}(t) &= (L_{r}-M_r) i_{ar} +M_0( \cos(\theta)i_{as}(t)+\cos(\theta+\frac{2\pi}{3})i_{br}(t)+\cos(\theta+\frac{2\pi}{3})i_{br}(t)+\cos(\theta-\frac{2\pi}{3})i_{cr}(t))\\
\Phi_{ar}(t) &= (L_{r}-M_r) i_{ar} +\frac{3M_0I_s}{\sqrt{2}} \cos(\Omega t-\omega_st+\theta_0-\phi_s) \\
\Phi_{ar}(t) &= L_{rc} i_{ar} +\frac{3M_0I_s}{\sqrt{2}} \cos(\omega_rt +\phi_s')
\end{align*}
Donc on a dans le formalisme complexe de l'ARQS, avec le rotor en court-circuit:
\[
V_{ar} = R_rI_{ar}+jL_{rc}\omega_rI_{ar}+j\frac32 M_0\omega_rI_s =0
\]
Soit en posant $g= \frac{\omega_s-\Omega}{\omega_s}=\frac{\omega_r}{\omega_s}$:
\[
\frac{\underline{V_{ar}}}{g} = 0 = \frac{R_r}{g} + jL_{Rc}\omega_sI_{ar}+j\frac32 M_0 \omega_sI_s
\]
\subsubsection{Modèle par analogie}
On a donc un couplage magnétique et on peux construire un modèle équivalent:
\begin{figure}[H]
\centering
\begin{circuitikz}
\draw (0,0) to[open,v=$V_s$] ++(0,2) to[R,l=$R_s$,i>=$I_s$]++(2,0)to[short] ++(1,0) to[L,l_=$L_{sc}$] ++(0,-2) -- ++(-3,0);
\draw (4,0) to[L,l_=$L_{rc}$] ++(0,2)
to[short,i=$I_r$] ++(2,0)
to[R,l=$R_r/g$] ++(0,-2) to[short] ++(-2,0);
\end{circuitikz}
\caption{Modèle électrique équivalent}
\end{figure}
Le couplage n'est pas parfait: $\frac{3}{2}M_0 < \sqrt{L_{sc}L_{rc}}$. On fait l'analogie avec un transformateur parfait avec pertes :
\begin{figure}[H]
\centering
\begin{circuitikz}
\draw (0,0) node[gyrator](G){}
(G.A1) -- ++(-1,0) coordinate(M) to[L,l_=$L_{sc}$] ++(0,-2) |- (G.A2)
(G.B1) to[L,l=$l_{fuites}$] ++(2,0) to[R,l=$R_r/g$] ++ (0,-2) |- (G.B2)
(M) to[R,l=$R_s$] ++(-2,0)
(G.A2) -- ++(-3,0) to[open,v=$V_s$] ++(0,2);
\draw[latex-latex] (G.A1)++(0,0.2) to[bend left] ++(2,0) node[midway, above=1.5em]{$m$}
;
\end{circuitikz}
\caption{Modèle électrique équivalent}
\end{figure}
On a donc l'impédance équivalente suivante à alimenter:
TBA
\subsection{Bilan de puissance}
\begin{align*}
P_{transmise} &= \frac{R_r}{g}I_r^2 \\
P_{Joules} &= R_r I_r^2 \\
P_{meca} &= P_{transmise}-P_{joules} = R_rI_r(\frac{1}{g}-1)
\end{align*}
\end{document}

View file

@ -0,0 +1,166 @@
\documentclass[main.tex]{subfiles}
\begin{document}
\section{Formule des moments et des interférences}
On considère les filtres:
{\huge
\begin{center}
\begin{tikzpicture}
\node (e) at (0,0) {$e$};
\node[rectangle,draw] (f) at (2,0) {$\mathcal{FL}$};
\node (s) at (4,0) {$s$};
\draw[->] (e) -- (f) -- (s);
\end{tikzpicture}
\end{center}}
On s'interesse aux filtre linéaires:
\begin{defin}
\begin{itemize}
\item Un fltre linéaire conservent la linéarité des systèmes auxquels il est appliqué.
\item Il est temps-invariant.
\item et stationnaire.
\end{itemize}
On peux caractériser un filtre linéaire par:
\begin{itemize}
\item sa réponse impulsionnelle $h$
\item sa réponse fréquentielle $H= TF[h]$
\item sa fonction de transfert $H_{II}$.
\end{itemize}
\end{defin}
\begin{prop}[Moyenne]
\[
m_s = H(0) m_e
\]
\end{prop}
Pour deux filtres on a :
\begin{center}
\begin{tikzpicture}
\node (e) at (0,0) {$e_1$};
\node[rectangle,draw] (f) at (2,0) {$\mathcal{H}_1$};
\node (s) at (4,0) {$s_1$};
\draw[->] (e) -- (f) -- (s);
\end{tikzpicture}\\[1.5em]
\begin{tikzpicture}
\node (e) at (0,0) {$e_2$};
\node[rectangle,draw] (f) at (2,0) {$\mathcal{H}_2$};
\node (s) at (4,0) {$s_2$};
\draw[->] (e) -- (f) -- (s);
\end{tikzpicture}
\end{center}
\begin{prop}[Formule des interférences]
\[
\Gamma_{s_1,s_2}(f)=H_1(f)\cdot H_2(f)^*\cdot \Gamma_{e_1,e_2}(f)
\]
\end{prop}
\section{Application}
\subsection{Blanchiement d'un signal}
Pour générer un bruit blanc $s(t)$ on veux :
\[
\Gamma_0 = |H(f)|^2\Gamma_{ee}(f)\implies |H(f)|^2 = \frac{\Gamma_0}{\Gamma_{ee}(f)}
\]
\subsection{Identification d'un filtre linéaire}
On applique en entrée un bruit blanc tel que $\Gamma_{ee}(f)=\Gamma_0$.
Alors:
\[
\Gamma_{se}=H(f)\Gamma_e(f) \implies H(f)=\frac{\Gamma_{se}(f)}{\Gamma_0} \propto \text{intercorrélation entrée sortie}
\]
\subsection{Signaux ARMA}
On peux utilise un Filtre Linéaire (FL) pour définir un Signal Aléatoire.
(SA).
Le SA sera la sortie d'un filtre dynamique (Fonction de transfert rationnel ,stable ,causal) excité par un bruit blanc.
\subsubsection{AR : autoregressif}
\[
\boxed{
H_{II}(z) = \frac{1}{D(z)}=\frac{1}{1-\sum_{i=1}^qa_iz^{-i}}
}
\]
Alors on aura en sortie du filtre:
\[
s_k= e_k + \sum_{i=1}^qa_is_{k-i}
\]
on parle aussi de filtre \og tout pôle\fg{}
\subsubsection{MA : Moyenne ajustée}
\[
\boxed{
H_{II}(z) = N(z)= 1+\sum_{i=1}^qb_iz^{-i}
}
\]
Alors on aura en sortie du filtre:
\[
s_k= e_k + \sum_{i=1}^qb_ie_{k-i}
\]
\subsubsection{ARMA}
\[
H_{II}(z) = \frac{N(z)}{D(z)}
\]
On connait alors $\Gamma_{ss}$ et le modèle AR. (Équation de Yule WAlker, cf TP2)
\subsection{Signaux AR : illustration}
pour une entrée en bruit blanc , les poles proches du cercle unités sont dominant
(approche géométrique , joli dessin)
\subsection{Filtre Adapté (FA)}
\paragraph{Contexte} Problème de transmission numérique (tout ou rien) d'un signal déterministe, connu avec bruit additif.
\paragraph{Objectif} déterminer le meilleur traitement linéaire pour décider de la présence ou non d'un signal.
Exemple en TD
\paragraph{Méthode} :Maximiser le RSB à l'instant de décision : avec $|s_{n_0}^f|^2$ puissance instantanée à l'instant de décision.
\[
\boxed{
\frac{|s_{n_0}^f|^2}{E[|b_n^f|^2]}
}
\]
\begin{prop}[Application au bruit blanc]
\begin{align*}
E[|b_n^f|^2] &=\int_{-\frac{1}{2}}^{\frac{1}{2}} |H(f)|^2\Gamma_{bb}(f)df = \Gamma_0\int_{-\frac{1}{2}}^{\frac{1}{2}} |H(f)|^2df \\
|S_{n_0}^f|^2 &= \left| \int_{-\frac{1}{2}}^{\frac{1}{2}} |H(f)|^2 S(f) e^{j2\pi n_0f}df\right| \leq \int_{-\frac{1}{2}}^{\frac{1}{2}} |H(f)|^2df \int_{-\frac{1}{2}}^{\frac{1}{2}} |S(f)|^2df
\end{align*}
On a égalité si $H(f)\propto S^{*}(f)e^{-j2\pi n_0f} \iff h_n \propto s_{n_0-n}^f$
LA RI du filtre est donc
\begin{itemize}
\item un retour temporel
\item translaté autour de l'instant de décision (attention a la causalité)
\item conjugué.
\end{itemize}
\end{prop}
\paragraph{Remarque}
\begin{itemize}
\item Le FA peut être non causal, la RI est alors tronqué et le filtre
sous-optimal.
\item Le FA est un corrélateur (d'énergie), l'objectif n'est pas de restituer le signal utile mais d'avoir le meilleur RSB à l'instant de décision.
\end{itemize}
\end{document}

View file

@ -0,0 +1,538 @@
\documentclass[main.tex]{subfiles}
\newcommand\gauss[2]{1/(#2*sqrt(2*pi))*exp(-((x-#1)^2)/(2*#2^2))} % Gauss function, parameters mu and sigma
\begin{document}
\section{Introduction}
\paragraph{Objectif}: Présenter quelques élements de la théorue de l'estimation statistique.
\subsection{Problématique}
\begin{figure}[H]
\centering
\begin{tikzpicture}
\node[draw, ellipse] (P) at (0,0) {
\begin{tabular}{c}
paramètres \\$\theta = \vect{\theta_1\\ \vdots\\\theta_n}$
\end{tabular}};
\node[draw, ellipse] (O) at (5,4) {
\begin{tabular}{c}
Observation \\
Y=$g(\theta)$
\end{tabular}};
\node[draw, ellipse] (E) at (10,0){
\begin{tabular}{c}
Estimée\\
$\hat{\theta} = h(y)$
\end{tabular}};
\draw[->,>=latex] (P) to[out=90, in = 180] (O);
\draw[->,>=latex] (O) to[out=0, in=90] node[near end,left]{
\begin{tabular}{c}
Information à priori\\
+ Critère
\end{tabular}}
(E);
\end{tikzpicture}
\caption{Méthode d'estimation classique}
\end{figure}
Le raisonnement se transpose alors sur la figure suivante:
\begin{figure}[H]
\centering
\begin{tikzpicture}
\draw[->,>=latex] (0,2) node{$\bullet$}node[right](theta){$\theta$} -- node[midway,left]{$\tilde{\theta}$}(-0.5,0) node{$\bullet$}node[right](hat){$\hat{\theta}$} ;
\node[draw,ellipse,fit= (theta) (hat)](par) {};
\node[below=5em] at (par) {\emph{Espace des paramètres}};
\node (y) at (5,2) {$\bullet$~$y$};
\node[draw,ellipse,minimum height=4cm,minimum width=2cm] (obs) at (5,1){};
\node[below=5em] at (obs){\emph{Espace des observations}};
\draw[->,>=latex] (theta) to[out=60, in=120] node[midway,above]{\emph{observation}} (y);
\draw[->,>=latex] (y) to[out=-120,in=30,bend left] node[midway,below=0.5em]{\emph{estimation}}(hat);
\end{tikzpicture}
\caption{Raisonnement en espace algébrique}
\end{figure}
On défini les index suivants:
\begin{description}
\item[m] nombre d'expérience réalisée (taille de $y$)
\item[n] nombre de paramètres (taille de $\theta$)
\end{description}
\paragraph{Estimateurs statistiques}
On observe une réalisation $y= g(\theta)$$\theta$ est une VA. et on détermine $\hat{\theta} = h(Y)$ estimée.
\paragraph{Exemple}
\subparagraph{Exemple 1}$\Theta$ tension constante.\\
$y(t) = \theta +b(t)$. soit $y_i = \theta + b_i$\\
On défini donc $Y$ et $\Theta$ VA et on a $Y = A\Theta + B$ -> régression linéaire.
\subparagraph{Exemple 2} filtre $RC$ $y(t) = (1-e^{-t/\tau})u(t)+b(t)$ , $\Theta=\tau$. modèle non linéaire, traité en TD.
\subsection{Performance-Qualité d'une estimation}
\begin{prop}[Grandeurs utiles]
\begin{itemize}
\item erreur d'estimation
\[
\tilde{\theta} = \hat{\theta}-\theta
\]
\item moment d'ordre 1:
\[
E_{Y|\Theta}[\tilde{\theta}]= E_{Y|\Theta}[\hat{\theta}]-\theta
\]
\item Biais moyen :
\[
E[\tilde{\theta}] = E_{Y\Theta}[\tilde{\theta}] = E[\hat{\theta}]-\theta
\]
\item moment d'ordre 2:
\begin{itemize}
\item covariance de l'erreur d'estimation
\[
C_{\tilde{\theta}\tilde{\theta}} = E[(\tilde{\theta}-m_{\tilde{\theta}})(.)^T]
\]
\item Corrélation de l'erreur d'estimation
\[
\Gamma_{\tilde{\theta}\tilde{\theta}} = E[\tilde{\theta}\tilde{\theta}^T]
\]
\item Puissance :(Estimateur Quadratique moyen)
\[
P_{\tilde{\theta}} = E[\| \tilde{\theta}\|^2] = tr(\Gamma_{\tilde{\theta}\tilde{\theta}})
\]
\end{itemize}
\end{itemize}
\end{prop}
\subsection{Caractérisation des estimateurs}
\begin{defin}
\begin{itemize}
\item Borne de Cramer Rao:
borne minimale du biais de variance (qui dépend de l'estimateur choisi)
\item Estimateur non biaisé: $E[\tilde{\theta}] = 0$
\item Estimateur efficace: Borne de Cramer-Rao atteinte.
\item Estimateur consistent: $E[\tilde{\theta}]\xrightarrow[N_{obs}\to\infty]{}0$ et $V[\tilde{\theta}]\xrightarrow[N_{obs}\to\infty]{}0$
\item Estimateur robuste:\\ Les performances de l'estimateur ne sont pas trop dégradé si on s'écarte un peu des hypothèses sous laquelle l'estimateur a été établi.
\item Complexité de l'estimateur:\\
sur l'o btention des connaissances et mise en oeuvre de l'estimateur.
\end{itemize}
\end{defin}
\section{Théorie classique de l'estimation}
\subsection{Estimateur des moindres carrés}
\begin{defin}
Pour $Y$ une VA de moyenne $m_y =m_{Y|\theta}$ on défini le critère :
\[
J_{MC} = (Y-m_y)^TM(Y-m_y)
\]
Avec $M$ matrice symétrique définie positive
et alors:
\[
\hat{\theta}_{MC} = \arg\min_{\theta} J_{MC}(Y,\theta)
\]
\end{defin}
\subsubsection{Condition nécessaire d'existance}
Si $J_{MC}(y,\theta)$ est dérivable et pas de contrainte sur $\theta$.
\[
\left.\nabla_J(\theta)\right|_{\hat{\theta}_{MC}} = \derivp[J_{MC}]{\theta} = 0 \quad \text{ Gradien}
\]
Il faut ensuite vérifié que c'est un minimum absolu:
\[
\nabla^2_{J}(\theta) = \derivp[{}^2J_{MC}]{\theta\partial\theta^T} > 0 \quad \text{Hessien}
\]
\paragraph{Application} $Y = A\theta{} + B$, avec $B$ une VA.
le critère des moindres carrés est alors :
\[
J_{MC} = (Y-A\theta-m_B)^TM (Y-A\theta-m_B)
\]
On a une forme quadratique positive car $A^TMA \geq0 $. (dans le cas $>0$ on a une CNS sur ce qui suit)
\subparagraph{Méthode 1}
\[
\left.\nabla_J(\theta)\right|_{\hat{\theta}_{MC}} = 0 = -2 A^TM(Y-A\theta-m_B)
\]
Donc
\[
A^TMA \theta = A^TM(Y-m_B)
\]
Soit \[
\boxed{\hat{\theta}_{MC} = \underbrace{(A^TMA)^{-1}AM}_{D}(Y-m_B)}
\]
On remarque que $DA = I_n$.
\subparagraph{Méthode 2} Pour $A^TMA>0$.
\[
J_{MC} = \underbracket{(D(Y-m_B)-\Theta)^TA^TMA(D(Y-m_B)-\theta)}_ {J_1(Y,\theta)} + \underbracket{(Y-m_B)^T(M-D^TA^TMAD)(Y-m_B)}_{J_2(Y)}
\]
Alors $\nabla J_{MC} = 0 \implies J_1 = 0 \implies D(Y-m_B) = \hat{\theta}_{MC}$
\subsubsection{Caractéristique de l'estimateur}
\begin{itemize}
\item Estimateur non biaisé
\begin{align*}
\tilde{\theta}_{MC} &=\hat{\Theta}-\theta\\
&= D(Y-m_B)-\theta \\
&= D(B-m_B)
\end{align*}
Donc $E[\hat{\theta_{MC}}] = 0 $
\item moment d'ordre 2 :
\[
C_{\tilde{\theta}\tilde{\theta}} = E[(\tilde{\theta}-m_{\tilde{\theta}})(.)^T] = D E[(B-m_B)(B-m_B)^T]D^T = D C_{BB}D^T
\]
\begin{itemize}
\item Cas MC ordinaire ($M=I_n$)
\[
C_{\tilde{\theta}\tilde{\theta}} = (A^TA)^{-1}A^TC_{BB}A(A^TA)^{-1}
\]
\item Cas MC pondéré ($M = C_{BB}^{-1}$)
\[
C_{\tilde{\theta}\tilde{\theta}} = (A^TC_{BB}^{-1}A)^{-1}
\]
\end{itemize}
\item Cas $\theta$ scalaire $Y_i = \theta +B_i$ donc :
\[
C_{BB} =
\begin{bmatrix}
\sigma_1^2 & &0 \\
& \ddots & \\
0 & & \sigma_m^2
\end{bmatrix} \text{ et }A = \vect{1\\ \vdots \\ 1}
\]
\begin{itemize}
\item Cas MCO : $A^TA = m $
\[
\hat{\theta_{MC}} =\frac{\Sigma(y_i-m_{bi})}{m} \quad \text{ et } \quad \sigma_{\tilde{\theta}}^2 = \frac{\Sigma\sigma_i^2}{m^2}
\]
\item cas MCP pour $M = C_{BB}^{-1} = diag(\sigma_1^{-2}, \dots, \sigma_m^{-2})$
\[
A^TC_{BB}A = \sum_{i=1}^m \frac{1}{\sigma_i^2} \quad \text{ donc } \quad \hat{\theta}_{MCP} = \frac{1}{\sum \frac{1}{\sigma_i^2}}\sum_{}^{}\frac{Y_i-mB_i}{\sigma_i^2}
\]
\begin{itemize}
\item $\hat{\theta_{MCP}}$ défini un barycentre
\item Pour $\sigma_i = \sigma$ on a $M=\sigma I \implies MCO =MCP $
\end{itemize}
\end{itemize}
\item Comparaison MCO et MCP (avec $M = C_{BB}$)
\begin{align*}
\sigma_{MCO}^2 &\leq \sigma_{MCP}^2\\
\frac{1}{\sum\sigma_i^{-2}} & \leq \frac{1}{m^2}\sum\sigma_i^2\\
m ^2 &\leq \frac{1}{\sum\sigma_i^{-2}} \sum\sigma_i^2
\end{align*}
\end{itemize}
\subsection{Estimateur du maximum de vraisemblance}
\begin{defin}
On considère $f_{Y}(y)$ ddp de $y$ paramétrée par $\theta$. On a $f_{Y|\theta}(y) = V(Y,\theta)$. on pose également $L(Y,\theta) = \ln(V(Y,\theta))$.
on défini alors:
\[
\hat{\theta}_{MV} = \arg\min f_{Y|\theta}(y) = \arg\min L(Y,\theta)
\]
\end{defin}
GRAPHE
\paragraph{Exemple} Modèle avec bruit additif gaussien.
\begin{prop}
Dans le cas d'un brui Gaussien et pour $M = C_{BB}^{-1}$
\[
\hat{\theta}_{MCP}=\hat{\theta}_{MV}
\]
\end{prop}
\paragraph{Remarque}
L'estimateur de MV n'est pas nécessairement efficace mais si un estimateur sans biais existe et est efficace c'est celui-ci.
Si $m \to\infty $ on montre que le MV est asymptotiquement efficace. (loi des grands nombres)
\section{Théorie générale de l'estimation}
\subsection{Estimateur linéaire en moyenne quadratique (ELMQ)}
\begin{defin}
Un ELMQ fourni une estimée de la forme
\[
\hat{\theta} = HY +C
\]
à partir de l'erreur quadratique moyenne $E[\|\tilde{\theta}\|^2] = E[\tilde{\theta}\tilde{\theta}^T] =P_{\tilde{\theta}}$
\end{defin}
\paragraph{Concept} $H$ et $C$ tel que $P_{\tilde{\theta}}$ minimal.
\[
(1) \quad \derivp[P_{\tilde{\theta}}]{H} = 0 \quad\text{ et }\quad (2)\quad \derivp[P_{\tilde{\theta}}]{C} = 0
\]
\begin{enumerate}[label=\arabic*)]
\item
\begin{prop}
\[
\derivp[P_{\tilde{\theta}}]{H} =2E[HY+C-\theta] = 2E[\tilde{\theta}] = 0
\]
L'ELMQ est un estimateur non biaisé.
\end{prop}
et donc :
\begin{align*}
C &= -Hm_Y+m_\theta\\
\hat{\theta} &= H(Y-m_y)+m_\theta \\
\tilde{\theta} &= H(Y-m_y) - (\theta-m_\theta)
\end{align*}
\item
\begin{prop}
\[
\derivp[P_{\tilde{\theta}}]{C} =2E[(HY+C-\theta)Y^T] = 2E[\tilde{\theta}Y^T] = 0
\]
$\tilde{\theta} \perp Y $ quand la puissance est minimale, $\tilde{\theta}$ et $Y$ sont décorrélées, on a extrait toute l'information commune.
\end{prop}
\begin{figure}[H]\centering
\begin{tikzpicture}
\draw (-1,0,4.2) -- ++(0,0,-7) -- ++(5,0,0) -- ++(0,0,7) -- ++(-5,0,0)node[above,left]{\emph{
\begin{tabular}{c}
sous espace \\
d'observation
\end{tabular}}};
\draw[->,>=latex] (1,0,3) -- (1,0,1) node[left]{$y_1$};
\draw[->,>=latex] (1,0,3) -- (2,0,3) node[below]{$y_2$};
\draw[->,>=latex] (1,0,3) -- (2,0,2) node[right]{$\hat{\theta}$};
\draw[dashed] (2,0,2) -- node[midway,right]{$\tilde{\theta}$} (2,3,2)node{$\times$} node[above]{$\theta$};
\end{tikzpicture}
\caption{Représentation des paramètres}
\end{figure}
De plus :
\begin{align*}
E[\tilde{\theta}Y^T]& =E[\tilde{\theta}(Y-m_Y)^T] \\
&= E[(H(Y-m_Y)-\theta-m_\theta)(Y-m_y)^T]\\
&= HC_{yy}-C_{\theta Y} = 0 \implies H = C_{\theta Y}C_{YY}^{-1}
\end{align*}
on a donc
\[
\boxed{\hat{\theta}=C_{\theta Y}C_{YY}^{-1}(Y-m_Y)+m_\theta}
\]
\paragraph{Remarque} L'ELMQ nécessite des connaissances du premier et du second ordre sur $\theta$ et $Y$.
\begin{prop}
\[
C_{\tilde{\theta}\tilde{\theta}} = C_{\theta\theta}-C_{\theta Y}C_{YY}^{-1}C_{Y\theta}
\]
La corrélation entre $\theta$ et $Y$ permet de diminuer l'ELMQ.
\end{prop}
\end{enumerate}
\subsection{Estimateur Bayésiens}
\subsubsection{Fonction coût/pénalité}
\begin{defin}
On appelle fonction de coût ou fonction de pénalité une fonction qui mesure l'erreur entrainée par la prise de la valeur $\hat{\theta}$ pour $\theta$.
\[
C(\hat{\theta},\theta) \geq 0 \quad \text{ ou encore }\quad C(\tilde{\theta}) \ge 0
\]
On prendra le plus souvent une \og bonne \fg{} fonction (continue, paire , croissante ...)
\end{defin}
\paragraph{Exemple de coût} on représente les fonctions de coût usuelles:
\begin{figure}[H]
\centering
\begin{tikzpicture}
\begin{axis}[axis lines=middle,
xlabel={$\tilde{\theta}$},
ylabel={$C(\tilde{\theta})$},
ytick={0},
ymax=20,
xtick={-1,1},
xticklabels={$-\frac{\Delta}{2}$,$\frac{\Delta}{2}$},
legend pos=outer north east
]
\addplot+[no marks]{0.8*x^2};
\addlegendentry{cout quadratique $|\tilde{\theta}|^2$}
\addplot+[no marks]{2*abs(x)};
\addlegendentry{cout en valeur absolue $|\tilde{\theta}|$}
\addplot+[no marks] coordinates{(-5,4)(-1,4)(-1,0)(1,0)(1,4)(5,4)};
\addlegendentry{cout uniforme $1 -\Pi_\Delta(\tilde{\theta})$}
\end{axis}
\end{tikzpicture}
\caption{Représentation des fonctions de coût classique}
\end{figure}
\begin{defin}
On appelle estimateur bayésiens l'estimateur qui minimise le coût moyen :
\begin{align*}
E_{\theta,Y}[C(\hat{\theta},\theta)] &= \int_{\R^{m+n}}C(\hat{\theta},\theta)f_{\theta Y}(\theta,y)d\theta dy\\ &=\int_{\R^m}\left(\underbrace{\int_{\R^n}C(\hat{\theta},\theta)f_{\theta|Y=y}(\theta)d\theta}_{E_{\theta|Y}[C(\hat{\theta},\theta)]}\right) f_{Y}(y)dy
\end{align*}
On minimise donc $ E_{\theta|Y}[C(\hat{\theta},\theta)]$ à coût conditionnel donné
\[
\hat{\theta}_{B} = \arg\min_{\hat{\theta}}E_{\theta|Y}[C(\hat{\theta},\theta)]
\]
\end{defin}
\subsubsection{Estimateur du maximum a posteriori (MAP)}
On considère un cout uniforme.
\begin{defin}
En prenant:
\begin{align*}
E_{\theta|Y}[C(\hat{\theta},\theta)] &= \int_{\R^m}(1-\Pi_{\Delta}(\tilde{\theta}))f_{\theta|Y=y}(\theta)d\theta
&= 1 - \int_{\hat{\theta}-\Delta/2}^{{\hat{\theta}+\Delta/2}}f_{\theta|Y=y}(\theta)d\theta
&\simeq 1- \Delta^nf_{\theta|Y=y}(\hat{\theta})
\end{align*}
Soit \[
\hat{\theta}_{MAP}=\arg\max_{\theta} f_{\theta|Y=y}(\theta)
\]
\end{defin}
\paragraph{Lien MAP-MV}
on a $f_{\theta|Y=y}(\theta) f_{Y}(y) = f_{\theta Y}(\theta,y)$. Avec $f_\theta(\theta) = C^{ste}$ quand $f_{\theta Y}(\theta,y)$ à une valeur significative (ie $C_{\theta\theta}$ grand / $\sigma_\theta$ grand ) alors :
\[
\arg\max f_{\theta|Y=y}(\theta) \simeq \arg\max f_{Y|\Theta=\theta}(y)
\]
On considère alors que $\theta$ est un paramètre aléatoire mais très mal connu. (ddp uniforme sur un interval tres grand, peu d'infos sur $\theta$).
\emph{cf. TD \og file d'attente\fg{}}
\paragraph{Exemple et Application}
On considère $\theta$ scalaire aléatoire avec: $Y_i = \theta +B_i$ Avec :
$
\begin{cases}
B \hookrightarrow \mathcal{N}(0,C_{BB})\\
\Theta \hookrightarrow\mathcal{N}(m_\theta,\sigma_\theta^2) \\
B \perp \Theta
\end{cases}$
\subparagraph{Rappel} MC=MV avec:
$\begin{cases}
m_B=0\\
\hat{\theta}_{MV} =\hat{\theta}_{MC} = \frac{\sum_{i=1}^{m}Y_i}{m}\\
E[\hat{\theta}_{MV}] = E[\theta]=m_\theta \text{ et } \sigma_{\tilde{\theta}_{MV}}=\frac{\sigma_B}{m}\\
\end{cases}$
On a donc:
\[
f_{Y|\theta}(y)=f_{B}(Y-A\theta) = \prod_{i=1}^{m}f_{B_i}(Y_i-\theta) = C_1 \exp\left(-\frac{1}{2}\frac{\sum(Y_i-\theta)^2}{\sigma_B^2}\right)
\]
Or
\[
f_{\theta|Y=y}(\theta) = \frac{f_{Y|\theta}(y)f_\theta(\theta)}{f_Y(y)} = C_2 \exp\left(-\frac{1}{2}\underbrace{\left[\frac{\sum(Y_i-\theta)^2}{\sigma_B^2}+\frac{(\theta-m_\theta)^2}{\sigma_\theta^2}\right]}_{J_{MAP}}\right)
\]
Le critère est ici une forme quadratique, donc :
\[
\hat{\theta}_{MAP} = \arg\max f_{\theta|Y=y}(\theta) = \arg\min J_{MAP}(\theta,Y)
\]
Alors on a la CNS :
\[
\deriv[J_{MAP}]{\theta} = 0 = 2 \left[ -\sum_{i=1}^{m}\frac{Y_i-\theta}{\sigma_b^2}+\frac{(\theta-m_\theta)^2}{\sigma_\theta^2}\right]
\]
Soit une expression barycentrique :
\[
\hat{\theta}_{MAP} = \frac{\frac{m}{\sigma_B^2}\sum_{}^{}\frac{Y_i}{m}+\frac{m_\theta}{\sigma_\theta^2}}{\frac{m}{\sigma_B^2}+\frac{1}{\sigma_\theta^2}}
\]
Donc :
\begin{prop}
\[
E[\hat{\theta}_{MAP}] = m_\theta
\]
L'estimateur est non biaisé. De plus :
\[
\sigma_{\tilde{\theta}_{MAP}}^2= \frac{1}{\frac{1}{\sigma_{MV}}+\frac{1}{\sigma_\theta^2}} <
\begin{cases}
\sigma_\theta^2 \\
\sigma_{MV}^2
\end{cases}
\]
On a fait mieux en prenant en compte toutes les sources d'informations.
\end{prop}
\paragraph{Remarque}
\begin{itemize}
\item Si $\sigma_\theta>>\sigma_{MV}$ alors $\hat{\theta}_{MAP}\simeq \hat{\theta}_{MV}$ (ce qui arrive pour $\sigma_B$ ou $m$ grand)
\item Si $\sigma_\theta<<\sigma_{MV}$ et $\hat{\theta}_{MAP} \simeq m_\theta$ (l'obersavation apporte peu d'info)
\end{itemize}
\subsubsection{Estimateur en moyenne quadratique (EQM)}
\begin{defin}
On le cout moyen de l'EQM:
\[
C(\hat{\theta},\theta) = (\hat{\theta}-\theta)^T M (\hat{\theta}-\theta)
\]
Avec $M>0$.
On cherche a minimiser le cout moyen mais sans contrainte de linéarité avec une matrice de pondération qui peux prendre en compte des facteurs d'echelles ou des unités différentes.
\end{defin}
\paragraph{Etude de l'estimateur} On veut minimiser $E_{\Theta|Y}[C(\hat{\theta},\theta)]$
\begin{align*}
\nabla_{\hat{\theta}}E_{\Theta|Y}[C(\hat{\theta},\theta)] &= 0 \\
E_{\theta|Y}[2M(\hat{\theta}-\theta)] &= 0 \\
2M E_{\theta|Y}[\underbracket{\hat{\theta}}_{h(y)}]-E_{\theta|Y}[\theta]&=0 \\
2M(\hat{\theta}-E_{\theta|Y}[\theta]) &= 0 \\
\Aboxed{ \hat{\theta}_{MQ} &=E_{\theta|Y}[\theta]} \\
&= \int_{\R^n}\theta f_{\theta|y}(\theta)d\theta = h(Y=y)
\end{align*}
Par conséquent: $E[\hat{\theta}_{MQ}]=E[\theta]$. on a un estimateur non biaisé.
\paragraph{Remarque}
Si $f_{\theta|Y}$ possède un axe de symétrie (ex: gaussienne) :
FIGURE . ($\hat{\theta}_{MQ}=\hat{\theta}_{MAP}$ dans le cas gaussien. Différent avec deux bosses.)
Dans le cas général la contrainte de linéarité pour l'ELMQ conduit à une valeur plus grande qu'avec l'EQM. Dans le cas gaussien: $\hat{\theta}_{ELMQ}=\hat{\theta}_{MQ}$, mais $\hat{\theta}_{MQ}$ nécessite plus de connaissance (ddp).
\subsubsection{Estimateur en valeur absolu}
\begin{defin}
on s'interesse au cas $n=1$ (un paramètre)
On choisit le cout moyen :
\[
C(\hat{\theta},\theta) = |\hat{\theta}-\theta|
\]
Alors :
\[
E_{\theta|Y}[C(\hat{\theta},\theta)] = \int_{-\infty}^{\hat{\theta}}(\hat{\theta}-\theta)f_{\theta|Y=y}(\theta)d\theta-\int_{\hat{\theta}}^{+\infty}(\hat{\theta}-\theta)f_{\theta|Y=y}(\theta)d\theta
\]
\end{defin}
Donc :
\begin{align*}
0 =& \nabla_{\hat{\theta}}E_{\theta|Y}[C(\hat{\theta},\theta)] \\
=& \dots \\
=&\int_{-\infty}^{\hat{\theta}}f_{\theta|Y=y}(\theta)d\theta-\int_{\hat{\theta}}^{+\infty}f_{\theta|Y=y}(\theta)d\theta
\end{align*}
\begin{prop}
L'estimée est alors $\hat{\theta}_{VA}$ tel que :
\[
\int_{-\infty}^{\hat{\theta}}f_{\theta|Y=y}(\theta)d\theta = \int_{\hat{\theta}}^{+\infty}f_{\theta|Y=y}(\theta)d\theta
\]
On parle de médiane a posteriori. Le résultat se généralise pour tout $n$.
\end{prop}
\paragraph{Remarque} Dans le cas où $f_{\theta|Y=y}(\theta)$ possède un axe de symétrie (ex gaussienne) on a :
\[
\hat{\theta}_{VA} =\hat{\theta}_{MV} \equals^{\stackrel{\max}{\downarrow}} \hat{\theta}_{MAP}
\]
\paragraph{Exemple} Localisation d'un véhicule / Ellipsoïde de confiance (cf poly).
\section{Conclusion}
\begin{itemize}
\item L'estimateur statistique dépend des connaissances a priori, de la complexité des calculs et de la robustesse attendue.
\item Dans certains cas particuliers/ limites on retrouve des estimateurs intuitifs /empirique.
\item La loi normale joue un rôle important (hypothèses qui se justifie par la loi des grands nombres): les calculs sont simplifiés et conduisent au même résultat.
\end{itemize}
\end{document}

View file

@ -0,0 +1,26 @@
\documentclass{../../cours}
\usepackage{../../raccourcis}
% Mise en page
\title{Note de Cours}
\author{Pierre-Antoine Comby}
\teacher{Anthony Juton \& Olivier Villain \& Emmanuel Hoang}
\module{414 \\ Production d'électricité à partir d'énergie renouvelables}
\usepackage{multicol}
\begin{document}
\maketitle
\tableofcontents
\chapter{La machine asynchrone - principe et modèle}
\emph{Anthony Juton}
\subfile{chap1.tex}
\chapter{L'énergie eolienne}
\chapter{La machine asynchrone en génératrice}
\chapter{La machine asynchrone à double excitation}
\chapter{Physique de la conversion électrovoltaïque}
\chapter{Électronique de puissance pour les parcs éoliens connectés au réseau}
\end{document}