jOas wEb Sci

Aller au contenu | Aller au menu | Aller à la recherche

Interpolation statistique - Estimation non-optimisée

Définition du gain

Un ansatz pour le vecteur d'analyse \[ \mathbf{x}^a \] est de le décomposer de la manière suivante :

(006)
\[ \mathbf{x}^a = \mathbf{L}\mathbf{x}^b + \mathbf{K}\mathbf{y}^o \],

où \[\mathbf{L} \] est une matrice de dimension n x n et \[ \mathbf{K} \] une matrice de dimension n x p. L'état analysé est donc une combinaison linéaire des différentes informations disponibles.

Son erreur associée peut être obtenu facilement en soustrayant \[ \mathbf{x}^t \] à l'Eq. (006).

\[ \mathbf{x}^a - \mathbf{x}^t = \mathbf{L}(\mathbf{x}^b-\mathbf{x}^t+\mathbf{x}^t) + \mathbf{K}(\mathbf{H}\mathbf{x}^t+\epsilon^o) - \mathbf{x}^t \]
(007)
\[ \epsilon^a = \mathbf{L}\epsilon^b + \mathbf{K}\epsilon^o + (\mathbf{L}+\mathbf{K}\mathbf{H}-\mathbf{I})\mathbf{x}^t \]

En recherchant une erreur d'analyse sans biais et comme les erreurs d'ébauche et d'observations sont, par hypothèse, non biaisées, l'Eq. (007) donne :

\[ E(\epsilon^a) = \mathbf{L}E(\epsilon^b) + \mathbf{K} E(\epsilon^o) + (\mathbf{L}+\mathbf{K}\mathbf{H}-\mathbf{I})E(\mathbf{x}^t) \],
(008)
\[ E(\epsilon^a) = (\mathbf{L}+\mathbf{K}\mathbf{H}-\mathbf{I})E(\mathbf{x}^t) \]

Il faut donc que \[\mathbf{L}+\mathbf{K}\mathbf{H}-\mathbf{I} =0\]. L'ansatz prend donc la forme simplifiée suivantes :

\[ \mathbf{x}^a = (\mathbf{I} - \mathbf{K}\mathbf{H})\mathbf{x}^b + \mathbf{K}\mathbf{y}^o \]

(009)
\[ \mathbf{x}^a = \mathbf{x}^b + \mathbf{K}(\mathbf{y}^o-\mathbf{H}\mathbf{x}^b) \]

On retrouve donc l'innovation \[ \mathbf{y}^o-\mathbf{H}\mathbf{x}^b \] définit précédemment et un opérateur linéaire \[ \mathbf{K} \] allant de l'espace des observations à l'espace du modèle généralement appelé gain.

Comme \[ \mathbf{K} \] est linéaire, l'analyse est donc une régression linéaire. Néanmoins, on parle, en général, d'interpolation linéaire pour des raisons historiques. En effet, les premières méthodes d'analyse, comme l'analyse de Cressman présentée précédemment, étaient réellement des interpolations linéaires au sens mathématique du terme. Pour obtenir une bonne analyse, il suffit donc de déterminer un gain satisfaisant.


Erreur d'analyse commise

En supposant le gain \[ \mathbf{K}\] connu, il est possible de calculer l'erreur d'analyse commise en partant de l'Eq. (006) et en utilisant les erreurs introduites auparavant :

(010)
\[ \epsilon^a = \mathbf{L}\epsilon^b + \mathbf{K}\epsilon^o\].

Comme les erreurs d'ébauche et d'observations sont décorrélées, alors la matrice de covariance d'erreur d'analyse est alors égale à:

\[ \mathbf{A} = E\left[(\epsilon^a)(\epsilon^a)^T \right] \]

\[ \mathbf{A} = E\left[(\mathbf{L}\epsilon^b+\mathbf{K}\epsilon^o)(\mathbf{L}\epsilon^b+\mathbf{K}\epsilon^o)^T \right] \]

\[ \mathbf{A} = E\left[\mathbf{L}(\epsilon^b)(\epsilon^b)^T\mathbf{L}^T \right] + E\left[\mathbf{K}(\epsilon^o)(\epsilon^o)^T\mathbf{K}^T \right] \]

(011)
\[ \mathbf{A} = \mathbf{L}\mathbf{B}\mathbf{L}^T + \mathbf{K}\mathbf{R}\mathbf{K}^T \].

En reprenant l'estimation de \[ \mathbf{L}=\mathbf{I}-\mathbf{K}\mathbf{H} \] obtenue avec l'hypothèse d'une erreur d'analyse sans biais, la matrice de covariance d'erreur d'analyse s'écrit alors sous la forme :

(012)
\[ \mathbf{A} = (\mathbf{I}-\mathbf{K}\mathbf{H})\mathbf{B}(\mathbf{I}-\mathbf{K}\mathbf{H})^T + \mathbf{K}\mathbf{R}\mathbf{K}^T \].