Analyse des méthodes basées sur le contenu en information etétude de sensibilité

Analyse des méthodes basées sur le contenu en information etétude de sensibilité

Au cœur d’un système d’analyse et de prévision océaniques se trouve un modèle mathématique décrivant l’océan, basé sur des équations complexes tenant compte des phénomènes physiques et de leur évolution dans le temps. Afin que la simu- lation numérique de l’océan soit le plus réaliste possible, les modèles numériques océaniques doivent recevoir des données indispensables dont la plupart sont is- sues de sources satellitaires et in-situ (température, salinité, niveau de surface et vitesses de courants. . . ). Ces mesures sont souvent de qualité variable, et disposées de manière irrégulière dans l’espace et/ou le temps. La représentation spatio- temporelle des processus océaniques faite par le modèle est aussi imparfaite. Le modèle souffre de plusieurs sources d’erreur notamment celle liée aux équations du modèle (discrétisation, paramétrisations des équations de la physique), aux forcages et aux conditions aux limites. Il est donc crucial de traiter chacune des in- formations provenant du modèle ou des observations au sein d’un système d’assim- ilation en tenant compte de l’erreur dont l’information est entachée. Pour cela l’as- similation de données reposant sur un processus mathématique permet d’obtenir la représentation la plus probable de l’état d’un système à partir de toutes les sources d’informations disponibles et des contraintes connues (Bouttier [2004]). En effet l’analyse résultant d’un système d’assimilation est influencée à la fois par les observations récemment assimilées et par l’information portée par l’ébauche. Il existe différentes approches pour mesurer l’impact des observations assimilées dont l’une d’elles repose sur le contenu en information, noté par la suite DFS pour Degrees of Freedom of the System. Des méthodes d’estimation du DFS ont déjà été développé pour des applications liées à l’atmosphère (Chapnik et al. [2006], Cardi- nali et al. [2004]) puis plus récemment lors d’applications océanographiques (Oke et al. [2009], Dibarboure et al. [2011]). Le DFS permet d’évaluer la contribution relative des observations dans n’importe quel système d’assimilation de données. Les méthodes d’estimation du contenu en information dans un système d’analyse et de prévisions réalistes s’articulent autour de l’expression de matrices de grandes dimensions. Les calculs matriciels peuvent s’avérer longs et coûteux. Pour éviter l’explicitation directe de matrices si denses, Girard [1987], Desroziers and Ivanov [2001] puis Chapnik et al. [2006] ont proposé de nouveaux schémas d’implémenta- tion afin d’estimer la trace de ces matrices lors des calculs pratiques du DFS. Enfin Lupu and Gauthier [2010] décrit une méthode pratique afin d’estimer le DFS de manière plus directe. Nous allons comparer ces différentes approches d’estimation du contenu en information afin de déterminer laquelle conviendrait le mieux à une implémentation dans le système d’assimilation de Mercator Océan. Ainsi dans ce chapitre nous présentons la définition analytique du DFS et ses formulations dans le cadre du BLUE et de l’analyse objective en section 5.2, puis en sections 5.3 et 5.4 par le biais d’applications nous mènerons une étude de sensibilité sur le DFS,

Mesure d’impact des observations sur l’anal- yse

On considère un schéma d’assimilation de donnée, soit xa le vecteur d’analyse optimale résultant, alors on définit le DFS comme étant la trace de la jacobienne du vecteur d’analyse dans l’espace des observations par rapport aux observations :Où H est l’opérateur d’observations linéarisé au voisinage de l’ébauche, et y le vecteur d’observations. Le DFS ou degrès de liberté du signal, permet de quanti- fier l’information utile contenue dans les observations en ce sens qu’il caractérise comment le système d’assimilation utilise les observations pour construire le signal à partir de l’ébauche (Rabier [2005]).

Définition dans le cadre du BLUE

Rappellons brièvement l’approche du BLUE qui permet d’obtenir le meilleur estimateur non biaisé du problème linéaire de l’assimilation. En pratique, il s’agit de trouver la meilleure combinaison entre un état à priori du système que l’on appelle l’ébauche, et les observations (Gelb [1974], Bouttier and Courtier [1999]). Le critère d’optimalité pour obtenir le meilleur estimateur statistique de cette combinaison est la détermination du minimum de variance d’erreur d’estimation. Les informations issues de l’ébauche et des observations sont entachées d’erreur. La combinaison des deux par le biais de divers algorithmes d’assimilation (BLUE, filtre de Kalman notamment) permet de se rapprocher de l’état réel du système. Ainsi, l’algorithme d’assimilation identifie à un instant t donné, un état analysé xa de laLa matrice K, appelée matrice de gain, permet de définir l’état assimilé comme la somme de l’ébauche et de l’incrément d’analyse (terme correctif)il est possible de diagnostiquer les erreurs d’observations, d’ébauche et d’analyse à posteriori, et d’obtenir une expression du DFS (Desroziers et al. [2005]; Lupu and Gauthier [2010]). En se basant sur la formulation analytique du DFS (notre référence) nous allons confronter deux des approches citées ci-dessus : la méthode reposant sur la randomisation de Girard développée dans Girard [1987] et Chap- nik et al. [2006], et la méthode dite aposteriori abordée dans Lupu and Gauthier [2010]. L’expression analytique du DFS ainsi que les deux approches d’estimation comparées sont détaillés ci-dessous et mises en pratique dans le cadre d’une analyse objective à la section .

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *