jOas wEb Sci

Aller au contenu | Aller au menu | Aller à la recherche

Interpolation statistiques - Approche variationnelle

Équivalence avec le BLUE

En reprenant exactement les mêmes hypothèses que pour le BLUE, il est possible de résoudre le problème par une approche variationnelle. Pour cela, il faut définir une fonctionnelle :

(023)
\[J(\mathbf{x})=\frac{1}{2}(\mathbf{x}-\mathbf{x}^b)\mathbf{B}^{-1}(\mathbf{x}-\mathbf{x}^b)+\frac{1}{2}(\mathbf{y}^o-\mathbf{H}\mathbf{x})^T\mathbf{R}^{-1}(\mathbf{y}^o-\mathbf{H}\mathbf{x}) \],

appelée fonction coût et qui a pour caractéristique d'être quadratique en \[ \mathbf{x} \]. Comme, de plus, les matrices \[\mathbf{B}\] et \[ \mathbf{R} \] sont définies positives, alors cette fonction coût est convexe et possède un seul minimum qui peut être estimé par son gradient :

(024)
\[ \nabla J(\mathbf{x}) = \mathbf{B}^{-1}(\mathbf{x}-\mathbf{x}^b)-\mathbf{H}^T\mathbf{R}^{-1}(\mathbf{y}^o-\mathbf{H}\mathbf{x}) \].

Le point selle \[ \mathbf{x}^* \] est donc logiquement obtenu pour \[ \nabla J(\mathbf{x})=0\] :

\[ \mathbf{B}^{-1}(\mathbf{x}^*-\mathbf{x}^b)-\mathbf{H}^T\mathbf{R}^{-1}(\mathbf{y}^o-\mathbf{H}\mathbf{x}^*) =0\],

\[ \mathbf{B}^{-1}(\mathbf{x}^*-\mathbf{x}^b)+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H}\mathbf{x}^* - \mathbf{H}^T\mathbf{R}^{-1}\mathbf{y}^o = 0 \],

\[ \mathbf{B}^{-1}(\mathbf{x}^*-\mathbf{x}^b)+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H}(\mathbf{x}^*-\mathbf{x}^b) = \mathbf{H}^T\mathbf{R}^{-1}\mathbf{y}^o - \mathbf{H}^T\mathbf{R}^{-1}\mathbf{H}\mathbf{x}^b \],

\[ (\mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H})(\mathbf{x}^*-\mathbf{x}^b) = \mathbf{H}^T\mathbf{R}^{-1}(\mathbf{y}^o-\mathbf{H}\mathbf{x}^b) \],

et la forme obtenue (Eq. (025)) en écrivant cette égalité par rapport à \[ x^* \] est identique à l'Eq. (016) :

(025)
\[ \mathbf{x}^* =\mathbf{x}^b + (\mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H})^{-1}\mathbf{H}^T\mathbf{R}^{-1}(\mathbf{y}^o-\mathbf{H}\mathbf{x}^b) \].

La formulation variationnelle est donc strictement identique au BLUE à l'optimalité.


Hessien

A partir du gradient de la fonction coût (Eq. (024)), il est facile d'en déduire le Hessien :

(026)
\[ \nabla^2 J(\mathbf{x}) = \mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H} \].

En comparant avec l'Eq. (020), il est possible de réécrire l'Eq. (026) en fonction de la matrice de covariance d'erreur d'analyse :

(027)
\[ \mathbf{A} = \left( \nabla^2 J(\mathbf{x}) \right)^{-1} \].

Cette nouvelle formulation de la matrice de covariance d'erreur d'analyse est particulièrement intéressante, car elle permet de comprendre que la qualité de l'analyse est proportionnelle à la convexité de la fonction coût. Moins la fonction coût sera convexe, moins bonne sera l'analyse. Il est donc très important de formuler le problème de manière à obtenir une fonction très convexe.


Extension des méthodes variationnelles

A partir de la formulation variationnelle (Eq. (023)), il est très facile de remplacer l'opérateur d'observation linéaire \[ \mathbf{H} \] par un opérateur non linéaire \[ H \]. Dans ce cas, il faut introduire l'opérateur tangent-linéaire de \[ H \] en \[ \mathbf{x} \] noté \[ \mathbf{H}^T \]. La fonction coût devient alors

(028)
\[ J(\mathbf{x}) = \frac{1}{2}(\mathbf{x}-\mathbf{x}^b)^T\mathbf{B}^{-1}(\mathbf{x}-\mathbf{x}^b) + \frac{1}{2}(\mathbf{y}^o-H\mathbf{x})^T\mathbf{R}^{-1}(\mathbf{y}^o-H\mathbf{x}) \],

et son gradient

(029)
\[ \nabla J(\mathbf{x}) = \mathbf{B}^{-1}(\mathbf{x}-\mathbf{x}^b)-\mathbf{H}^T\mathbf{R}^{-1}(\mathbf{y}^o-H\mathbf{x}) \].

Cette extension de la méthode variationnelle à des cas non-linéaires est donc très simple, alors qu'elle n'est pas possible dans le cadre du BLUE.

Il est, par ailleurs, possible de modifier la fonction coût de telle sorte que la nouvelle fonctionnelle s'optimise dans l'espace des observations et non dans celui du modèle. Ce formalisme se nomme PSAS pour Physical Space Assimilation System et est particulièrement utile lorsque le nombre d'observations est plus faible que le nombre de variables du modèle.

Enfin, la formulation variationnelle a un avantage important sur le BLUE en cela qu'elle ne nécessite pas d'inverser la matrice \[ \mathbf{R}+\mathbf{H}\mathbf{B}\mathbf{H}^T \]. En effet, pour minimiser la fonction coût, il suffit de calculer le produit d'un vecteur par les inverses de \[ \mathbf{B} \] et \[ \mathbf{R} \]. Ce qui, au niveau algorithmique, est beaucoup plus rapide.