jOas wEb Sci

Aller au contenu | Aller au menu | Aller à la recherche

Péambule - Introduction à l'assimilation de données

Plus le message est probable moins il fournit d'information : les clichés et les lieux communs éclairent moins que les grands poèmes.

Norbert Wiener


Historique


La recherche scientifique repose sur deux sources d'information et d'étude différentes, les observations d'une part, et les modèles d'autre part. Au cours de l'histoire des Sciences, les observations furent d'abord qualitatives avant de devenir quantitatives. Parallèlement, les modèles descriptifs s'améliorèrent grâce aux techniques mathématiques, et particulièrement à l'analyse numérique.

La charnière du XVIIIème et XIXème siècle vit ainsi apparaître l'assimilation de données. Cette technique vise à estimer l'état d'un système dynamique en utilisant toutes les sources d'information. Elle appartient au domaine de l'estimation statistique et de la théorie du contrôle (Gelb, 1974 et Lions, 1968). Johann Tobias Mayer (1723-1762), astronome allemand, calcula les mouvements de la lune avec une admirable précision, et mérita, par ses Tables de la Lune, le grand prix décerné par le Bureau des longitudes de Londres (1755).  En effet, il évalua les erreurs dues aux imperfections des réglages des instruments de mesure et eut le premier l'idée de répéter la mesure des angles pour atténuer les erreurs de mesure. A cette époque, de nombreux mathématiciens et astronomes développèrent des méthodes proches de la Méthode aux moindres carrés. Adrien Marie Legendre (1752-1834), professeur de mathématiques à l'école militaire de Paris, exposa, dans un traité sur les orbites des comètes en 1805, cette méthode d'ajustement dite des moindres carrés. Elle fut cependant attribuée à  Karl Friedrich Gauss (1777-1855) qui publia en 1809 son travail sur les mouvements des corps célestes contenant la méthode aux moindres carrés et permettant de calculer l'orbite de Cérès. Il affirma, pour sa défense, qu'il utilisait cette méthode depuis 1795.  Cependant, l'astronome, physicien et mathématicien Pierre Simon Laplace revendiqua aussi la paternité de cette méthode dans ses travaux sur la stabilité mécanique du système solaire dans lesquels il développa en 1783 une méthode proche de celle aux moindres carrés visant à résoudre un système d'équations sous-déterminé.

Les astronomes furent donc les premiers à travailler sur la théorie de l'estimation avant que les mathématiciens ne reprennent la thématique. C'est au XXème siècle que Sir Ronald Aylmer Fisher (1890-1962) apporta une contribution majeure au domaine de l'estimation. Il publia en 1912 (Fisher, 1912) un article sur les fonctions de densité de probabilité en utilisant, sans le citer, l'estimateur du maximum de vraisemblance. Il publia ensuite en 1925 l'ensemble de ses travaux sur l'estimation (Fisher, 1925) qui devint un best-seller de la statistique (14 éditions et traduit en 6 langues). Il faut ensuite attendre les années 40 pour que Norbert Wiener (1894-1964), philosophe et mathématicien, en se fondant sur la théorie des processus aléatoires, présente une approche du filtrage optimal adaptée aux problèmes spectraux (Wiener, 1949). Cette technique nommée filtre de Wiener traite les problèmes continus dans le temps à l'aide de fonctions de corrélation et se limite aux processus stationnaires.  A la même époque, Andreï Nikolaïevich Kolmogorov (1903-1987) traite le problème discret dans le temps : ce que les historiens des sciences appellent  une double découverte. Durant les années suivantes, le travail de Wiener fut étendu aux cas non-stationnaires. Dans les années 60, Rudolf Emil Kalman (1930- ) unifia d'abord le problème continu et discret dans le temps avant de développer le filtrage optimal récursif  (Kalman, 1960 et Kalman et Bucy, 1961), plus connu sous le nom de filtre de Kalman. A la différence du filtre de Kalman, le filtre de Wiener n'a pas cette bonne propriété de récursivité. Le filtre de Kalman est maintenant utilisé dans beaucoup de domaines tels que la détermination d'orbites satellitales, les systèmes de guidage, le traitement d'images, les sciences de la terre ou l'économétrie. Vers la même époque, Yoshi Kazu Sasaki, qui travaillait sur la prévision des trajectoires des ouragans, proposa une approche variationnelle de l'estimation (Sasaki, 1958 et Sasaki, 1970) qui, sous certaines hypothèses, conduit à des résultats semblables à ceux du filtrage optimal. La formulation tri-dimensionnelle est connue sous le nom de 3D-Var tandis que celle quadri-dimensionnelle est ordinairement nommée 4D-Var.


L'assimilation de données en météorologie...


Des sciences de la terre, la météorologie s'empara la première de l'assimilation de données. Gandin développa une analyse objective des champs de précipitations totales dès 1963 (Gandin, 1963). Au cours des dernières décennies, les progrès en météorologie ont été rendues possible par la conjonction systématique des observations et des apports de la théorie. La motivation et l'enjeu essentiel de ces différentes sources d'informations étaient et sont encore le besoin de prévisions météorologiques numériquement calculables. Très rapidement s'est  imposée l'idée que les modèles dynamiques utilisés devaient rendre compte de la propagation des informations dans le temps et l'espace. Cette notion de propagation tente de compenser la disparité et l'imprécision des observations en permettant de construire une image consistante et quadri-dimensionnelle de l'atmosphère.  Convaincus de l'importance cruciale de l'assimilation de données, de nombreux centres de recherche ou de prévision opérationnels tels que Météo-France ou le CEPMMT (Centre Européen pour les Prévisions Météorologiques à Moyen-Terme) (Rabier etal, 2000) participent à des projets internationaux ayant pour objectif l'amélioration des prévisions opérationnelles, mais aussi l'étude de l'impact anthropique sur l'évolution du climat et l'amélioration de la connaissance de nombreux phénomènes climatiques régissant ce système. Ceci devient possible par une amélioration, qualitative et quantitative, des sources d'informations, grâce notamment aux nouvelles générations de satellites d'observation (ER2, Jason, Envisat), et par une incessante augmentation des capacités de calcul.


... puis en océanographie


L'essor de l'océanographie physique est plus récent. Cependant l'intérêt de plus en plus marqué pour l'étude de la dynamique de l'océan, ainsi que l'amélioration des modèles numériques (Gent et McWilliams, 1990 ; Holloway, 1992 ; Large etal, 1994 et Griffies etal, 2000) ont motivé l'émergence de l'assimilation de données dans le domaine de la prévision océanique (Koblinsky et Smith, 2001). Le déploiement de réseaux d'observation des océans avec des bouées ou des flotteurs (données in situ) et l'utilisation des données satellitaires (altimétriques, radiométriques, etc) ont soutenu l'émergence et le développement de l'assimilation de données appliquée à l'océanographie. Ses objectifs sont de satisfaire, d'une part, aux besoins de l'étude de la dynamique océanique en effectuant la meilleure estimation possible de l'état de  l'océan au cours du temps. Cette estimation permet d'obtenir un état initial le plus réaliste possible pour la prévision océanique et pour la prévision saisonnière qui utilise des systèmes couplés océan-atmosphère. D'autre part, l'assimilation de données permet d'estimer, voire d'améliorer, les paramètres du modèle numérique d'océan (Smedstad et O'Brien, 1991), les forçages (Stammer etal, 2002 et Vossepoel et Behringer, 2000) ou les conditions aux frontières (Bennet et McIntosh, 1982 et Deltel, 2002). La capacité du système à s'ajuster vers les observations permet d'identifier certains biais ou dérives du modèle numérique d'océan (Bennett etal, 1998). De la même manière, des écarts trop importants identifiés par l'assimilation entre les observations et le modèle peuvent mettre en évidence une incohérence dans les observations (Holland, 1989). Enfin, l'assimilation peut aussi être utilisée pour évaluer un système d'observations (Miller, 1990 et Carton etal, 1996).


Les principaux objectifs


L'assimilation de données passées disponibles sur de longues périodes se nomme ré-analyse. Le projet européen ENACT (ENhanced ocean data Assimilation and Climate predicTion) avait ainsi pour objectif de réaliser, entre autre, des ré-analyses sur la période 1962-2001. La compréhension de la circulation océanique, de la variabilité du système et des mécanismes qui engendrent les phénomènes physiques majeurs de l'océan (Stammer, 2002) peut être améliorée avec les produits issus de ces ré-analyses.

Comme en météorologie, la connaissance d'un état initial le plus juste possible permet de produire des prévisions les plus fiables.  L'assimilation de données a ainsi pour objectif de construire cette condition initiale afin d'améliorer les prévisions météorologiques ou océaniques. C'est pourquoi elle est au coeur de projets d'océanographie opérationnelle comme MERCATOR (Projet d'océanographie opérationnelle). Les prévisions obtenues permettent de connaître au mieux la dynamique globale des courants et masses d'eau, ainsi que l'équilibre biologique régnant dans l'océan qui en découle. Tous ces produits sont directement utiles dans les domaines de la pêche, du transport maritime, de la protection des espèces marines, de la défense et, plus anecdotiquement, dans celui des courses au large. La qualité des systèmes permet aujourd'hui une analyse de la circulation océanique réelle (Leetmaa et Ji, 1989) ainsi que la représentation de la physique méso-échelle globale (Fu et Smith, 1996). Un système d'océanographie opérationnel performant doit ainsi être composé d'un modèle océanique réaliste, d'une méthode
d'assimilation efficace et d'observations nombreuses et de qualité.

Pour la prévision saisonnière, la connaissance la plus réaliste de l'état de l'océan est primordiale. En effet, la qualité du couplage océan-atmosphère est conditionnée fortement par la composante océanique qui représente la mémoire du système : la capacité de stockage de l'océan est 1200 fois supérieure à celle de l'atmosphère. L'assimilation de données permet de déterminer des conditions initiales suffisamment réalistes à l'interface océan-atmosphère. En supposant que le couplage soit réalisé parfaitement entre un modèle d'océan et un modèle d'atmosphère tout deux parfaits, l'information contenue dans l'état initial de l'océan est préservée et propagée par le modèle d'océan, puis transmise correctement au modèle d'atmosphère.  Une des hypothèses fortes des modèles parfaits est d'être non biaisée.  Cependant, et malgré ces hypothèses fortes, la capacité des méthodes d'assimilation à améliorer la qualité des conditions initiales océaniques et des prévisions saisonnières n'est plus à démontrer. La mise en évidence d'un impact positif sur l'ensemble du globe est cependant plus compliquée. Ces difficultés sont dues notamment aux techniques de couplage, par exemple l'échange des flux entre les modèles d'océan et d'atmosphère, et à la qualité des modèles toujours perfectibles. Cependant, pour certaines régions du globe où la dynamique est spécifique, ou dans un contexte d'étude particulier, l'assimilation de données a pu clairement montrer son intérêt. L'exemple de la région Pacifique tropical avec l'assimilation des  données TAO (Tropical Atmosphère Océan)  améliore clairement la prévision des événements ENSO (El Nino Southern Oscillation) (Ji etal, 1997 ; Segschneider etal, 2000 et Alves etal, 2004). Ces prévisions saisonnières sont produites de manière opérationnelle par le NCEP (National Centers for Environmental Prediction) (Behringer etal, 1998 et Ji etal, 1998) et par le CEPMMT (Segschneider etal, 2000 et Alves etal, 2004).


Les contraintes


Le développement des méthodes d'observation et de la modélisation de l'océan ont fait évoluer, au cours des dernières décennies, les techniques d'assimilation de données du système océanique. D'autre part, le développement de méthodes d'assimilation de plus en plus performantes dans le domaine de l'atmosphère a profité au domaine océanique. Cependant, quelle que soit la méthode d'assimilation de données choisie, les problèmes sont globalement les mêmes, essentiellement celui de la taille du système, qui comprend généralement plus de \[10^7\] degrés de liberté, et qui pose certains soucis de temps de calcul et d'espace mémoire. Aucun progrès notable n'aurait pu voir le jour sans la mise à disposition de moyens de calculs importants. Aujourd'hui, grâce à des super-calculateurs, les centres de prévisions atmosphériques opérationnels utilisent des méthodes d'assimilation performantes. Néanmoins, la puissance de calcul reste le facteur limitant pour le développement de méthodes d'assimilation dans le domaine des sciences de la terre. Les objectifs actuels de la communauté scientifique sont donc les suivants : réduire la taille des systèmes étudiés sans perdre d'information, améliorer la connaissance des paramètres physiques, la statistique des erreurs de mesure, prendre en compte l'erreur modèle sans trop pénaliser la résolution numérique...

A. Gelb, 1974: Applied Optimal Estimation, Academic Press, New York, 374 pp.
J.-L. Lions, 1968: Contrôle optimal de systèmes gouvernés par des équations aux dérivées partielles, DUNOD, 448 pp.
R. A. Fisher, 1912: On an absolute criterion for fitting frequency curves, Mess. Math., 41, 155-160.
R. A. Fisher, 1925: Statistical Methods for Research Workers, Oliver and Boyd, Edinburgh.
N. Wiener, 1949: Extrapolation, Interpolation and Smoothing of Stationary Time Series with Engineering Applications, MIT Press, Cambridge, 654 pp.
R. E. Kalman, 1960: A New Approach to Linear Filtering and Prediction Problems, J. Bas. Eng., 82, 33-45.
R. E. Kalman and R. S. Bucy, 1961: New Results in Linear Filtering and Prediction Theory, J. Bas. Eng., 83, 95-107.
Y. K. Sasaki, 1955: A fundamental study of the numerical prediction based on the variational principle, J. Met. Soc. Japan, 33, 262-275.
Y. K. Sasaki, 1958: An objective analysis based on the variational method, J. Met. Soc. Japan, II(36), 77-88.
Y. K. Sasaki, 1970: Some basic formalisms in numerical variational analysis, Mon. Wea. Rev., 98, 875-883.
L. S. Gandin, 1963: Objective Analysis of Meteorological Fields, Gidrometeorologich eskoe Izdatel 'sivo, 242 pp.
F. Rabier, H. Järvinen, E. Kilnder, J.-F. Mahfouf and A. Simmons, 2000: The ECMWF operational implementation of four-dimensional variational assimilation. Part I: Experimental results with simplified physics, Quart. J. Roy. Meteor. Soc., 126, 1143-1170.
P. R. Gent and J. C. McWilliams, 1990: Isopycnal mixing in ocean circulation models, J. Phys. Oceanogr., 20, 150-155.
G. Holloway, 1992: Representing topographic stress for large-scale ocean models, J. Phys. Oceanogr., 22, 1033-1046.
W.G. Large, J. C. McWilliams and S. C. Doney, 1994: Oceanic vertical mixing: a review and a model with a nonlocal boundary layer parameterization, Rev. Geophys., 32, 363-403.
S. M. Griffies, C. Böning, F. O. Bryan, E. P. Chassignet, R. Gerdes, H. Hasumi, A. Hirst,  A.-M. Treguier and D. Webb, 2000: Developments in ocean climate modelling, Ocean Modelling, 2, 123-192.
C. J. Koblinsky and N. R. Smith, 2001: Observing the oceans in the 21th century, GODAE Project office bureau of Meteorology, 604 pp.
O. M. Smedstad and J. J. O'Brien, 1991: Variational data assimilation and parameter estimation in an equatorial Pacific Ocean model, J. Phys. Oceanogr., 26, 179-241.
D. Stammer, C. Wunsch, R. Giering, C. Eckert, P. Heimbach, J. Marotze, A. Adcroft, N. C. Hill and J. Marshall, 2002: Global ocean circulation during 1992-1997, estimated from ocean observations and a general circulation model, J. Geophys. Res., 107(C9),  3118.
F. C. Vossepoel and D. W. Behringer, 2000: Impact of sea level assimilation on salinity variability in the western equatorial Pacific, J. Phys. Oceanogr., 30, 1706-1721.
A. F. Bennett and P. C. McIntosh, 1982: Open ocean modeling as an inverse problem: tidal theory, J. Phys. Oceanogr., 12, 1004-1018.
C. Deltel, 2002: Estimation du cycle saisonnier de l'Atlantique Sud par assimilation variationnelle de données in situ. Impact du contrôle optimal de l'hydrologie aux frontières ouvertes et des champs de forçage air-mer, Université de Bretagne Sud, Brest, France, 223 pp.
A. F. Bennett, B. S. Chua, D. E. Harrison and M. J. McPhaden, 1998: Generalized inversion of tropical atmosphere-ocean data and a coupled model of the tropical Pacific, J. Clim., 11, 1768-1792.
W. R. Holland, 1989: Altimeter data assimilation into ocean ciculation models -- some preliminary results, in Oceanic Circulation Models: Combining Data and Dynamics, Kluwer Academic Publishers, Dordrecht, The Netherlands, 203-232.
R. N. Miller, 1990: Tropical data assimilation experiments with simulated data: The impact of the tropical ocean and global atmosphere thermal array for the ocean, J. Geophys. Res., 95, 11461-11482.
J. A. Carton, B. S. Giese, X. Cao and L. Miller, 1996: Impact of altimeter, thermistor, and expendable bathythermograph data on retrospective analyses of the tropical Pacific ocean, J. Geophys. Res., 101, 14147-14159.
D. Stammer, C. Wunsch, R. Giering, C. Eckert, P. Heimbach, J. Marotze, A. Adcroft, N. C. Hill and J. Marshall, 2002: Global ocean circulation during 1992-1997, estimated from ocean observations and a general circulation model, J. Geophys. Res., 107(C9), 3118.
A. Leetmaa and M. Ji, 1989: Operational hindcasting of the tropical Pacific, Dyn. Atmos. Oceans, 13, 465-490.
L.-L. Fu and R. D. Smith, 1996: Global ocean circulation from satellite altimetry and high-resolution computer simulation, Bull. Am. Met. Soc., 77, 2625-2636.
M. Ji and A. Leetmaa, 1997: Impact of data assimilation on ocean initialization and El Nino prediction, Mon. Wea. Rev., 125, 742-753.
J. Segschneider, D. L. T. Anderson and T. N. Stockdale, 2000: Towards the use of altimetry for operational seasonal forecasting, J. Clim., 13, 3116-3138.
O. Alves, M. A. Balmaseda, D. L. T. Anderson and T. N. Stockdale, 2004: Sensitivity of dynamical seasonal forecasts to ocean initial condition, Quart. J. Roy. Meteor. Soc., 130, 647-668.
D. W. Behringer, M. Ji and A. Leetmaa, 1998: An improved coupled model for ENSO prediction and implications for ocean initialization. Part I: The ocean data assimilation system, Mon. Wea. Rev., 126, 1013-1021.
M. Ji, D. W. Behringer and A. Leetmaa, 1998: An improved coupled model for ENSO prediction and implications for ocean initialization. Part II: The coupled model, Mon. Wea. Rev., 126, 1022-1034.

Commentaires

1. Le vendredi, novembre 23 2007, 22:11 par thierry

waouh! j'avoue avoir abandonné la lecture au bout de l'intro!
Les courants marins ont fini par me donner mal au crâne.