jOas wEb Sci

Aller au contenu | Aller au menu | Aller à la recherche

Mot-clé - 3D-Var

Fil des billets

jeudi, novembre 22 2007

L'assimilation de données

Chose promise, chose due. Alors, voici une vision générale de ce qui occupe les plus longues de mes heures : l'assimilation de données.

Ce billet regroupe les différents billets publiés sur le contexte général de l'assimilation de données sous forme d'une table des matières hiérarchisée. Peut-être verrez-vous d'ici quelques temps fleurir des billets sur le cadre plus particulier de mon travail : l'assimilation de données océanographique avec une méthode variationnelle. Qui sait ?

Bonne lecture...






Lire la suite...

jeudi, novembre 15 2007

Méthode d'assimilation - 3DVar


3D-Var

La méthode d'assimilation variationnelle tri-dimensionnelle, notée 3D-Var pour "3Dimensional VARiational assimilation", consiste à chercher l'état le plus vraisemblable à partir des connaissances disponibles sur les lois de probabilités des erreurs d'observation et d'ébauche.

Comme sont nom l'indique clairement, le 3D-Var traite de problèmes tri-dimensionels. Par abus de langage, cette appellation est aussi utilisée pour des problèmes à une ou deux dimensions afin d'éviter les risques de confusions avec l'extension temporelle de cette méthode. En effet, sur un problème bi-dimensionnel, le 3D-Var s'appellerait 2D-Var, tandis que le 4D-Var se nommerait 3D-Var. Ce qui serait particulièrement ambigu. De ce fait, tous les problèmes ne prenant pas en compte l'aspect temporel sont appelés 3D-Var.

Comme pour le filtre de Kalman, le 3D-Var consiste à minimiser la distance au sens des moindres carrés entre l'état estimé et les différentes sources d'informations telles que la prévision précédente et les observations. Le nouvel état analysé est, en général, utilisé comme point de départ de la prévision suivante.

Lire la suite...

Méthode d'assimilation - Méthodes variationnelles

Introduites au début des années cinquante par Sasaki (Sasaki, 1955 et Sasaki, 1958), les méthodes variationnelles sont devenues pendant les années 1990 très populaires. De grands centres de prévisions météorologiques, tels que le NMC (U.S. National Meteorological Center, maintenant appelé National Centers for Environmental Prediction) en 1991 (Parrish et Derber, 1992), le CEPMMT (Centre Européen pour les Prévisions Météorologiques à Moyen Terme, aussi appelé ECMWF) en 1996 (Courtier etal., 1998 et Anderson etal., 1998) ou Météo-France en 1997, ont adopté ce type de méthode.

Cette approche de l'assimilation de données n'est plus basée sur des théories statistiques, mais sur la théorie de l'optimisation. En opposition aux méthodes séquentielles qui ne traitent les observations qu'au fur et à mesure de leur disponibilité sans jamais utiliser des observations futures, l'approche variationnelle traite le problème globalement sous la forme de la minimisation d'une fonctionnelle (fonction objective) mesurant les caractéristiques indésirables de la solution du modèle. Ces caractéristiques peuvent être l'écart aux observations, la présence d'onde de gravité, le non respect de certains équilibres, ou d'autres. Dans la suite, seul l'écart aux observations et l'éloignement à l'ébauche de la condition initiale seront pris en compte.

Si les statistiques ne sont plus les bases de ces méthodes, elles restent indispensables pour les calibrer et définir la fonction à minimiser.

L'approche variationnelle a déjà été abordée dans la section sur le BLUE en mettant en évidence, entre autre, l'équivalence à l'optimalité avec le BLUE.