jOas wEb Sci

Aller au contenu | Aller au menu | Aller à la recherche

Interpolation statistique - Propriétés du BLUE

Formule de Sherman-Morrison-Woodbury

Le gain optimal est, en général, donné sous la forme de l'Eq. (015). Cependant, il peut être réécrit sous la forme :

\[\mathbf{K}^* = \mathbf{B}\mathbf{H}^T(\mathbf{H}\mathbf{B}\mathbf{H}^T+\mathbf{R})^{-1}\],

\[\mathbf{K}^* =\left( \mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H} \right)^{-1} \left(\mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H}\right) \mathbf{B}\mathbf{H}^T(\mathbf{H}\mathbf{B}\mathbf{H}^T+\mathbf{R})^{-1}\],

\[\mathbf{K}^* =\left( \mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H} \right)^{-1} \left(\mathbf{H}^T+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H}\mathbf{B}\mathbf{H}^T\right) (\mathbf{H}\mathbf{B}\mathbf{H}^T+\mathbf{R})^{-1}\],

\[\mathbf{K}^* =\left( \mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H} \right)^{-1} \mathbf{H}^T\mathbf{R}^{-1}\left(\mathbf{R}+\mathbf{H}\mathbf{B}\mathbf{H}^T\right) (\mathbf{H}\mathbf{B}\mathbf{H}^T+\mathbf{R})^{-1}\],

(016)
\[\mathbf{K}^* =\left( \mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H} \right)^{-1} \mathbf{H}^T\mathbf{R}^{-1}\].

Cette autre formule est du gain optimal permet de changer l'espace dans lequel il faut faire une inversion matricielle. En effet, dans l'Eq. (015), il faut inverser \[ \mathbf{R}+\mathbf{H}\mathbf{B}\mathbf{H}^T\] dans l'espace des observations, tandis qu'avec l'Eq. (016), il faut maintenant inverser \[\mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H}\] dans l'espace du modèle. Comme, en général, l'espace des observations est plus petit que celui du modèle, l'Eq. (015) est beaucoup plus souvent utilisée car bien moins coûteuse.


Erreur d'analyse optimale

L'erreur d'analyse a été obtenue par l'Eq. (012). En réinjectant la valeur du gain optimal dedans, il est possible d'obtenir une erreur d'analyse optimale :

\[ \mathbf{A} = (\mathbf{I}-\mathbf{K}^*\mathbf{H})\mathbf{B}(\mathbf{I}-\mathbf{K}^*\mathbf{H})^T + \mathbf{K}^*\mathbf{R}\mathbf{K}^{*T}\],

\[ \mathbf{A} = (\mathbf{I}-\mathbf{K}^*\mathbf{H})\mathbf{B} - (\mathbf{I}-\mathbf{K}^*\mathbf{H})\mathbf{B}\mathbf{H}^T\mathbf{K}^{*T} + \mathbf{K}^*\mathbf{R}\mathbf{K}^{*T}\],

\[ \mathbf{A} = (\mathbf{I}-\mathbf{K}^*\mathbf{H})\mathbf{B} + \left( \mathbf{K}^*\mathbf{R} +\mathbf{K}^*\mathbf{H}\mathbf{B}\mathbf{H}^T - \mathbf{B}\mathbf{H}^T \right) \mathbf{K}^{*T}\],

\[ \mathbf{A} = (\mathbf{I}-\mathbf{K}^*\mathbf{H})\mathbf{B} + \left( \mathbf{K}^* (\mathbf{R}+\mathbf{H}\mathbf{B}\mathbf{H}^T) - \mathbf{B}\mathbf{H}^T \right) \mathbf{K}^{*T}\],

\[ \mathbf{A} = (\mathbf{I}-\mathbf{K}^*\mathbf{H})\mathbf{B} + \left( \mathbf{B}\mathbf{H}^T(\mathbf{R}+\mathbf{H}\mathbf{B}\mathbf{H}^T)^{-1} (\mathbf{R}+\mathbf{H}\mathbf{B}\mathbf{H}^T) - \mathbf{B}\mathbf{H}^T \right) \mathbf{K}^{*T}\],

(017)
\[ \mathbf{A} = (\mathbf{I}-\mathbf{K}^*\mathbf{H})\mathbf{B}\]

Il est aussi possible de calculer le résidu d'analyse en réutilisant l'Eq. (009) :

\[ \mathbf{y}^o-\mathbf{H}\mathbf{x}^a = \mathbf{y}^o -\mathbf{H}\left( \mathbf{x}^b + \mathbf{K}(\mathbf{y}^o-\mathbf{H}\mathbf{x}^b)\right) \]

\[ \mathbf{y}^o-\mathbf{H}\mathbf{x}^a = ( \mathbf{y}^o - \mathbf{H}\mathbf{x}^b) - \mathbf{H}\mathbf{K} (\mathbf{y}^o-\mathbf{H}\mathbf{x}^b) \]

(018)
\[ \mathbf{y}^o-\mathbf{H}\mathbf{x}^a = (\mathbf{I}-\mathbf{H}\mathbf{K})(\mathbf{y}^o-\mathbf{H}\mathbf{x}^b)\]

En repartant de l'Eq. \ref{eq016} et en réutilisant l'Eq. (017), il est possible de définir le gain optimal en fonction de l'erreur d'analyse. En effet :

\[ \mathbf{K}^* = \left( \mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}\mathbf{H} \right)^{-1} \mathbf{H}^T\mathbf{R}^{-1}\],

\[ \mathbf{K}^* = \left( \mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}\mathbf{H} \right)^{-1} \mathbf{B}^{-1}\mathbf{B}\mathbf{H}^T\mathbf{R}^{-1}\],

\[ \mathbf{K}^* = \left( \mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}\mathbf{H} \right)^{-1} \left( (\mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H})-\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H} \right) \mathbf{B}\mathbf{H}^T\mathbf{R}^{-1}\],

\[ \mathbf{K}^* = \left( \mathbf{I} -( \mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}\mathbf{H} )^{-1} \mathbf{H}^T\mathbf{R}^{-1}\mathbf{H} \right) \mathbf{B}\mathb}{H}^T\mathbf{R}^{-1}\],

\[ \mathbf{K}^* = \left( \mathbf{I} - \mathbf{K}^*\mathbf{H} \right) \mathbf{B}\mathbf{h}^T\mathbf{R}^{-1}\],

(019)
\[ \mathbf{K}^* = \mathbf{A}\mathbf{H}^T\mathbf{R}^{-1}\].

Il est aussi possible de définir l'inverse de l'erreur d'analyse optimale en fonction des erreurs d'ébauche et d'observations. En effet, en reprenant l'Eq. (017) définissant l'erreur d'analyse optimale et en lui injectant le gain optimal obtenu avec l'Eq. (019), on obtient :

\[\mathbf{A} = (\mathbf{I}-\mathbf{K}^*\mathbf{H})\mathbf{B}\],

\[ \mathbf{A} = (\mathbf{I}-\mathbf{A}\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H})\mathbf{B}\],

\[ \mathbf{A} = \mathbf{B} - \mathbf{A}\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H}\mathbf{B}\],

\[\mathbf{A} (\mathbf{I} + \mathbf{H}^T\mathbf{R}^{-1}\mathbf{H}\mathbf{B}) = \mathbf{B}\],

\[(\mathbf{I} + \mathbf{H}^T\mathbf{R}^{-1}\mathbf{H}\mathbf{B})^{-1} \mathbf{A}^{-1} = \mathbf{B}^{-1}\],

\[\mathbf{A}^{-1} = (\mathbf{I ]+ \mathbf{H}^T\mathbf{R}^{-1}\mathbf{H}\mathbf{B})\mathbf{B}^{-1}\],

(020)
\[\mathbf{A}^{-1} = \mathbf{B}^{-1} + \mathbf{H}^T\mathbf{R}^{-1}\mathbf{H}\].

Cette équation est intéressante car elle veut dire que les matrices de confiance (les inverses des matrices de covariance d'erreurs) sont additives. En d'autres termes, tout apport d'information, quelque soit sa qualité objective, augmente forcément la confiance dans l'état analysé. D'autres formulations du gain optimal ou des l'erreur d'analyse sont encore possibles.


Représenteur sans biais

Il est possible d'écrire l'innovation en fonction des erreurs d'ébauche et d'observations :

\[ \mathbf{y}^o -\mathbf{H}\mathbf{x}^b = \mathbf{H}\mathbf{x}^t+\epsilon^o-\mathbf{H}\mathbf{x}^b\],

(021)
\[ \mathbf{y}^o -\mathbf{H}\mathbf{x}^b = \epsilon^o-\mathbf{H}\epsilon^b\].

Comme les erreurs d'ébauche et d'observations sont supposées sans biais, alors il apparaît logiquement que l'innovation est aussi de biais nul (\[E[\mathbf{y}^o-\mathbf{H}\mathbf{x}^b]=0\]). De la même manière, le biais du résidu d'analyse est, lui aussi, nul (\[E[\mathbf{y}^o-\mathbf{H}\mathbf{x}^a]=0\]).


Corrélation de l'analyse et de son erreur

Une dernière autre caractéristique intéressante du BLUE peut être obtenue en calculant la covariance entres l'analyse et son erreur \[ E[\mathbf{x}^a(\epsilon^a)^T]\]. En supposant que l'ébauche est décorrélée de son erreur \[E[\mathbf{x}^b(\epsilon^b)^T]=0\] ainsi que de l'erreur d'observations \[ E[\mathbf{x}^b(\epsilon^o)^T]=0\], que les erreurs d'ébauche et d'observations sont mutuellement décorrélées \[E[\epsilon^b(\epsilon^o)^T]=0\] et en utilisant les Eqs. (009), (010) et (021), alors :

\[ E[\mathbf{x}^a(\epsilon^a)^T] = E\left[ \left(\mathbf{x}^b + \mathbf{K}(\epsilon^o-\mathbf{H}\epsilon^b)\right)\left((\mathbf{I}-\mathbf{K}\mathbf{H})\epsilon^b+\mathbf{K}\epsilon^o\right)^T \right]\]

\[ E[\mathbf{x}^a(\epsilon^a)^T] = E\left[ \left(\mathbf{K}(\epsilon^o-\mathbf{H}\epsilon^b)\right)\left((\mathbf{I}-\mathbf{K}\mathbf{H})\epsilon^b+\mathbf{K}\epsilon^o\right)^T \right] \]

\[ E[\mathbf{x}^a(\epsilon^a)^T]= \mathbf{K} E[\epsilon^o(\epsilon^o)^T] \mathbf{K}^T - \mathbf{K}\mathbf{H} E[\epsilon^b(\epsilon^b)^T](\mathbf{I}-\mathbf{K}\mathbf{H})^T \]

(022)
\[ E[\mathbf{x}^a(\epsilon^a)^T]= \mathbf{K} \left( \mathbf{R} \mathbf{K}^T - \mathbf{H}\mathbf{B}(\mathbf{I}-\mathbf{K}\mathbf{H})^T\right)\]

A l'optimalité et en reprenant l'Eq. (014), on trouve alors que \[E[\mathbf{x}^a(\epsilon^a)^T]=0\]. Ainsi, sous ces hypothèses classiques, l'analyse est décorrélées de son erreur. En mathématique, on parle alors d'orthogonalité. Le BLUE associe donc optimalité avec orthogonalité.