jOas wEb Sci

Aller au contenu | Aller au menu | Aller à la recherche

Mot-clé - BLUE

Fil des billets

jeudi, novembre 22 2007

L'assimilation de données

Chose promise, chose due. Alors, voici une vision générale de ce qui occupe les plus longues de mes heures : l'assimilation de données.

Ce billet regroupe les différents billets publiés sur le contexte général de l'assimilation de données sous forme d'une table des matières hiérarchisée. Peut-être verrez-vous d'ici quelques temps fleurir des billets sur le cadre plus particulier de mon travail : l'assimilation de données océanographique avec une méthode variationnelle. Qui sait ?

Bonne lecture...






Lire la suite...

jeudi, novembre 15 2007

Interpolation statistiques - L'exemple du naufragé

Pour illustrer les différents concepts abordés, un exemple sera très utile. Supposons qu'à la suite d'une tempête, un marin naviguant en suivant la ligne de côtes, s'échoue sur des récifs. Le bateau étant bien équipé, il relève sa dernière position sur le GPS et monte dans le canot de sauvetage. Malheureusement, ce canot est dépourvu de rames. Les vagues et le vent l'emportent donc loin de son navire échoué. Définissons un référentiel de tel sorte que l'axe x soit parallèle à la côte et l'axe y lui soit perpendiculaire. La position du navire échoué dans ce référentiel est défini comme le point de référence de coordonnées (0,0). La position du canot de sauvetage est donc connu à l'instant \[ t_0=0 \]. Un peu plus tard, à l'instant t, le naufragé estime au jugé la distance qui le sépare de la côte. Le naufragé sait que son estimation est empreinte d'une erreur et il estime la variance de cette erreur \[s^o\]. Il se rappelle, par ailleurs, la position de l'épave et sait que le canot de sauvetage a dérivé malgré l'absence de courants marins prédominants dans cette région. Il suppose donc que la probabilité qu'il se trouve maintenant à la position \[(u^b,v^b)\] suit une loi normale de variance \[s^b\] qui dépend linéairement du temps écoulé. Après réflexion, il estime aussi que le processus de mesure au jugé n'est pas corrélé à celui de la dérive du canot. Il résume donc sa situation en faisant un schéma (Fig. 3).

La géométrie de la situation du naufragé
Fig. 3 : La géométrie de la situation du naufragé.

Lire la suite...

Interpolation statistiques - Approche variationnelle

Équivalence avec le BLUE

En reprenant exactement les mêmes hypothèses que pour le BLUE, il est possible de résoudre le problème par une approche variationnelle. Pour cela, il faut définir une fonctionnelle :

(023)
\[J(\mathbf{x})=\frac{1}{2}(\mathbf{x}-\mathbf{x}^b)\mathbf{B}^{-1}(\mathbf{x}-\mathbf{x}^b)+\frac{1}{2}(\mathbf{y}^o-\mathbf{H}\mathbf{x})^T\mathbf{R}^{-1}(\mathbf{y}^o-\mathbf{H}\mathbf{x}) \],

appelée fonction coût et qui a pour caractéristique d'être quadratique en \[ \mathbf{x} \]. Comme, de plus, les matrices \[\mathbf{B}\] et \[ \mathbf{R} \] sont définies positives, alors cette fonction coût est convexe et possède un seul minimum qui peut être estimé par son gradient :

(024)
\[ \nabla J(\mathbf{x}) = \mathbf{B}^{-1}(\mathbf{x}-\mathbf{x}^b)-\mathbf{H}^T\mathbf{R}^{-1}(\mathbf{y}^o-\mathbf{H}\mathbf{x}) \].

Lire la suite...

Interpolation statistique - Propriétés du BLUE

Formule de Sherman-Morrison-Woodbury

Le gain optimal est, en général, donné sous la forme de l'Eq. (015). Cependant, il peut être réécrit sous la forme :

\[\mathbf{K}^* = \mathbf{B}\mathbf{H}^T(\mathbf{H}\mathbf{B}\mathbf{H}^T+\mathbf{R})^{-1}\],

\[\mathbf{K}^* =\left( \mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H} \right)^{-1} \left(\mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H}\right) \mathbf{B}\mathbf{H}^T(\mathbf{H}\mathbf{B}\mathbf{H}^T+\mathbf{R})^{-1}\],

\[\mathbf{K}^* =\left( \mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H} \right)^{-1} \left(\mathbf{H}^T+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H}\mathbf{B}\mathbf{H}^T\right) (\mathbf{H}\mathbf{B}\mathbf{H}^T+\mathbf{R})^{-1}\],

\[\mathbf{K}^* =\left( \mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H} \right)^{-1} \mathbf{H}^T\mathbf{R}^{-1}\left(\mathbf{R}+\mathbf{H}\mathbf{B}\mathbf{H}^T\right) (\mathbf{H}\mathbf{B}\mathbf{H}^T+\mathbf{R})^{-1}\],

(016)
\[\mathbf{K}^* =\left( \mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H} \right)^{-1} \mathbf{H}^T\mathbf{R}^{-1}\].

Lire la suite...

Interpolation statistique - Best Linear Unbiased Estimation

Connaissant la matrice de covariance d'erreur d'analyse, il est possible d'essayer de minimiser son erreur scalaire (\[ \mathrm{Tr}(\mathbf{A}) \]). Il doit donc exister un gain optimal \[ \mathbf{K}^*\] qui peut être obtenu en étudiant la variation de l'erreur scalaire d'analyse sous une variation du gain. Comme la trace est une fonction scalaire continue et différentiable des coefficients de \[ \mathbf{K} \], il est possible d'exprimer sa dérivé \[ d_{\mathbf{K}} \] au premier ordre :

\[ d_{\mathbf{K}}\left(\mathrm{Tr}(\mathbf{A})\right) = \mathrm{Tr}\left( -\mathbf{H}\mathbf{B}\mathbf{L}^T - \mathbf{L}\mathbf{B}\mathbf{H}^T + \mathbf{R}\mathbf{K}^T + \mathbf{K}\mathbf{R} \right) \]

\[ d_{\mathbf{K}}\left(\mathrm{Tr}(\mathbf{A})\right) = \mathrm{Tr}\left( \mathbf{R}\mathbf{K}^T -\mathbf{H}\mathbf{B}\mathbf{L}^T \right) +\mathrm{Tr}\left( \mathbf{K}\mathbf{R} - \mathbf{L}\mathbf{B}\mathbf{H}^T \right) \]

(013)
\[ d_{\mathbf{K}}\left(\mathrm{Tr}(\mathbf{A})\right) = 2\mathrm{Tr}\left( \mathbf{K}\mathbf{R} -\mathbf{L}\mathbf{B}\mathbf{H}^T \right) \]

L'équation (013) est obtenue en utilisant des propriétés de l'algèbre linéaire telles que la trace est linéaire \[ \mathrm{Tr}(\mathbf{B}+\alpha\mathbf{R})=\mathrm{Tr}(\mathbf{B})+\alpha\mathrm{Tr}(\mathbf{R}) \]), la trace de la transposée égale la trace (\[ \mathrm{Tr}(\mathbf{B}^T)=\mathrm{Tr}(\mathbf{B}) \]) et les matrices symétriques sont égales à leurs transposées (\[ \mathbf{B}^T=\mathbf{B} \]).

Pour obtenir le gain optimal \[ \mathbf{K}^*\], il faut que \[ d_{\mathbf{K}}\left(\mathrm{Tr}(\mathbf{A})\right)=0\]. L'équation (013) donne alors le résultat suivant :

\[ \mathbf{K}^*\mathbf{R} -\mathbf{L}\mathbf{B}\mathbf{H}^T = 0\],

\[ \mathbf{K}^*\mathbf{R} -(\mathbf{I}-\mathbf{K}^*\mathbf{H})\mathbf{B}\mathbf{H}^T = 0\],

(014)
\[ \mathbf{K}^*(\mathbf{R}+\mathbf{H}\mathbf{B}\mathbf{H}^T) = \mathbf{B}\mathbf{H}^t\].

A l'optimalité, on a donc un gain égale

(015)
\[ \mathbf{K}^*=\mathbf{B}\mathbf{H}^T(\mathbf{R}+\mathbf{H}\mathbf{B}\mathbf{H}^T)^{-1}\].

Avec ce gain optimal, il est alors possible d'estimer \[\mathbf{x}^a\] et \[\mathbf{A}\]. C'est une estimation BLUE (Best Linear Unbiased Estimation) car elle est linéaire (Eq. (006)), sans biais (Eq. (008)) et optimale (Eq. (014)).