Effet d’une perturbation sur l’équilibre énergétique de la Terre

Simulation de l’évolution récente

Dans le cadre de la préparation du 4e rapport du Groupe Intergouvernemental sur l’Evolution du Climat (GIEC) qui doit paraître début 2007, les principales équipes de modélisation du climat de part le monde ont réalisé un important exercice coordonné de simulation de l’évolution du climat au cours du 20e et du 21e siècle. Nous présentons ici les résultats obtenus par les modèles du CNRM et de l’IPSL, en évoquant les progrès réalisés depuis le précédent rapport du GIEC. Nous replacerons également nos résultats par rapport à ceux des autres modèles, et indiquerons les résultats qui sont communs à l’ensemble des modèles et ceux qui peuvent être différents. Recent and futur climate change as simulated by the CNRM and IPSL models Abstract: In support of the Fourth Assessment Report of the Intergovernmental Panel on Climate Change (IPCC) that should appear in early 2007, modelling groups world-wide have performed a huge coordinated exercise of climate change runs for the 20th and 21st century. In this paper we present the results of the two french climate models, from CNRM and IPSL. In particular we emphasise the progress made since the previous IPCC report and we identify which results are comparable among models and which strongly differ. 1- Des premiers concepts aux modèles complexes 1-1 Effet de sere et température de la Terre: les premières études Au début du 19e siècle, Joseph Fourier formule les principes des lois physiques régissant la température de surface de la Terre [Fourier, 1827]. Il établit que la température de surface s’ajuste pour équilibrer le bilan d’énergie à la surface et que ce bilan est dominé par deux phénomènes, l’absorption du rayonnement solaire (qui apporte de l’énergie) et les échanges par rayonnement infrarouge (qui contrôle les pertes d’énergie vers l’espace) [Bard 2004, Pierrehumbert 2004, Dufresne 2006]. Il en déduit que tout changement des conditions de surface peut entrainer un changement du climat: «L’établissement et le progrès des sociétés humaines, l’action des forces naturelles peuvent changer notablement, et dans de vastes contrées, l’état de la surface du sol, la distribution des eaux et les grands mouvements de l’air. De tels effets sont propres à faire varier, dans le cours de plusieurs siècles, le degré de la chaleur moyenne; car les expressions analytiques comprennent des coefficients qui se rapportent à l’état superficiel et qui influent beaucoup sur la valeur de la température.» De même un changement de l’énergie solaire incidente peut changer le climat, ce qui inquiète Fourier et le conforte dans l’idée que l’espace a une température suffisamment élevée pour atténuer ces éventuels changements d’ensoleillement: «Dans cette hypothèse du froid absolu de l’espace, s’il est possible de la concevoir, tous les effets de la chaleur, tels que nous les observons à la surface du globe, seraient dus à la présence du Soleil. Les moindres variations de la distance de cet astre à la Terre occasionneraient des changements très considérables dans les températures, l’excentricité de l’orbite terrestre donnerait naissance à diverses saisons.» Cette hypothèse d’une température de l’espace assez élevée est aujourd’hui abandonnée (elle est estimée à 3K) et le rôle des changements d’ensoleillement sur les variations du climat ne sera admis que dans la seconde moitié du 20e siècle. J. Fourier évoque également le piégeage du rayonnement infrarouge par l’atmosphère, ou effet de serre. «C’est ainsi que la température est augmentée par l’interposition de l’atmosphère, parce que la chaleur trouve moins d’obstacle pour pénétrer l’air, étant à l’état de lumière, qu’elle n’en trouve pour repasser dans l’air lorsqu’elle est convertie en chaleur obscure. » A partir de ces travaux fondateurs, de nombreuses études ont été menées tout au long du 19e et du 20e siècle [cf. par ex. Bard 2004]. Svante Arrhénius [1895] est le premier à avoir effectivement calculé l’effet d’une augmentation ou d’une diminution de la concentration de CO2 sur les températures de surface. Il a aussi émis l’hypothèse que les variations de concentration de gaz pouvaient jouer un rôle moteur dans les variations climatiques passées et futures. Mais les calculs radiatifs réalisés par Arrhénius étaient très imprécis (et se révèlent aujourd’hui faux). C’est seulement depuis la fin des années 1980 que l’on sait calculer précisément les échanges par rayonnement à l’aide de codes de transfert radiatif et de bases de données spectrales (pourvu que l’on spécifie les différents constituants de l’atmosphère et de la surface: gaz à effet de serre, nuages, aérosols, couverture neigeuse…). On peut aussi calculer précisément l’effet d’une perturbation particulière (tel un changement de la concentration d’un gaz) sur le bilan énergétique de l’atmosphère et de la surface en supposant que toutes les autres caractéristiques de l’atmosphère et de la surface restent fixées. La grandeur que l’on calcule ainsi s’appelle le “forçage radiatif” d’une perturbation. A titre d’exemple, pour un doublement de la concentration de l’atmosphère en CO2, on obtient un forçage radiatif à la tropopause, pour une atmosphère “moyenne” idéalisée et sans nuages de 5.48±0,07 W.m-2 [Collins et al, 2006]. Il reste une incertitude, mais on voit qu’elle est assez faible. En moyenne sur le globe et sur l’année, et en tenant compte des nuages, on obtient un forçage radiatif au sommet de l’atmosphère de 3.7±0.2 W.m-2. Comme on s’intéresse aux variations lentes du climat, ce calcul du forçage radiatif prend en compte l’ajustement en température de la stratosphère car il est très rapide. L’étape suivante est de déterminer l’effet de ce forçage radiatif sur la température de la Terre. Une solution très simple est de calculer ce changement de température en supposant que la température de l’atmosphère et de la surface peuvent changer mais que 1. ce changement de température est le même en tous points de l’atmosphère et de la surface 2. ce changement de température n’affecte que la loi d’émission du rayonnement (ou loi d’émission du corps noir) mais ne modifie aucune propriété physique de l’atmosphère ni aucun échange d’énergie autre que ceux par rayonnement infra-rouge. Ce calcul est assez précis car l’on connaît la loi du corps noir et que l’on sait calculer les échanges radiatifs lorsque toutes les propriétés radiatives sont connues. Toujours avec l’exemple d’un doublement de CO2, on obtient un accroissement de température de 1,2±0.1°C avec les hypothèses simplificatrices ci-dessus. 1-2 L’utilisation de modèles de climat Dans la réalité, dès que l’on change le bilan d’énergie de la surface et de l’atmosphère, toutes les variables climatiques (vent, humidité, nuages, pluie, couverture neigeuse…) sont modifiées. Or ces variables influencent fortement le bilan radiatif et induisent des processus de rétroaction. Une perturbation (un changement des gaz à effet de serre, la présence d’aérosols dus à une éruption volcanique…) modifie le bilan radiatif, ce qui modifie la température de surface, le climat (notamment la vapeur d’eau et les nuages), et en retour les échanges radiatifs eux-mêmes… Ces rétroactions sont dites positives lorsqu’elles ont pour effet d’amplifier les perturbations initiales, et dites négatives dans le cas contraire. Les premières études prenant en compte ces rétroactions ont été effectuées à l’aide de modèles radiatif-convectifs à une seule dimension verticale. Par exemple, Manabe et Wetherald [1967] ont montré qu’avec leur modèle, le réchauffement en surface du à un doublement du CO2 était de 1,3 °C lorsque l’humidité absolue de l’atmosphère restait constante mais atteignait 2,4 m°C lorsque l’humidité relative restait constante. De nombreuses autres études ont confirmé l’importance cruciale de ces mécanismes de rétroaction sur l’amplitude du réchauffement climatique et leur forte dépendance à des processus physiques complexes (et moins bien connus que le transfert radiatif) tels que la turbulence, la convection, la formation de systèmes nuageux et de précipitations [par ex. Ramanathan and Coakley, 1978]. Cependant les modèles radiatif-convectifs sont encore trop simples car ils ne prennent pas en compte certains phénomènes importants comme les mouvements d’air qui déterminent la redistribution d’énergie et de vapeur d’eau au sein de l’atmosphère. Il est alors nécessaire d’introduire la dynamique atmosphérique et d’avoir recours à des modèles tridimensionnels représentant la circulation générale de l’atmosphère sur l’ensemble du globe. Les premières études de l’impact d’un doublement du CO2 avec ce type de modèle ont été effectuées dans les années 1970 au GFDL (Geophysical Fluid Dynamics Laboratory, Princeton, USA) par S. Manabe et R.T. Wetherald [1975] avec un océan sans circulation et de capacité thermique nulle permettant une mise en équilibre rapide. Mais l’océan joue lui-même un rôle important dans l’équilibre énergétique: on estime que le transport de chaleur de l’équateur vers le pôle effectué par les courants océaniques représente un tiers environ du transport de chaleur par la circulation atmosphérique. Des modèles de circulation générale de l’océan ont alors été développés et couplés avec les modèles atmosphériques, en incluant également l’évolution de la glace de mer. L’utilisation de modèles numériques du climat permet ainsi de prendre en compte de façon cohérente les principaux phénomènes physiques régissant les phénomènes climatiques, et leurs interactions. Ce gain en cohérence a pour contrepartie de rendre les modèles climatiques complexes, ce qui les rend très difficiles à développer, à metre au point et à évaluer.

Les simulations pour le GIEC

Dans ces simulations les forçages, après avoir évolué selon différents scénarios, sont maintenus constants et le climat continue à évoluer du fait de son inertie thermique. Nous montrerons notamment dans cet article des résultats pour un scénario dans lequel les concentrations des gaz à effet de serre sont fixées aux valeurs de l’année 2000 pendant tout le 21e siècle. La réalisation de ces scénarios nécessite de très importantes ressources informatiques. Par exemple, la réalisation de cet ensemble de simulations pour les deux modèles français a nécessité environ 40 000 heures de calcul sur super-calculateur (sur une période de 6 à 12 mois) et les résultats générés occupent un espace mémoire d’environ 40 Tera-octets (To). Afin d’avoir une vue la plus large et la plus complète possible sur le comportement des modèles et sur leur validité, les équipes de modélisation sont également encouragées à réaliser des simulations complémentaires, et notamment: – des simulations sans modèle océanique et dans lesquels le modèle atmosphérique est forcé par les températures de surface de l’océan observées, sur la période 1979-2004 – des simulations dans lesquelles le modèle océanique est remplacé par un modèle calculant uniquement la température de l’océan superficiel, mais pas la circulation océanique – des simulations avec le modèle climatique complet, mais pour simuler des changements climatiques anciens: il y a 6 000 ans (époque pendant laquelle des fresques avec des scènes de chasse ont été réalisées dans le Sahara) et il y a 21 000 ans (fin de la dernière époque glaciaire, lorsque l’extension des calottes de glace était maximale). Ces simulations complémentaires ne seront pas présentées ici. 3- Description des modèles climatiques Les modèles climatiques présentent de nombreuses similitudes avec les modèles météorologiques; ils reposent sur des formulations et des méthodes de calcul proches, et partagent un certain nombre d’outils logiciels. Néanmoins, la première préoccupation des modèles de prévision météorologique est de « coller » au plus près avec l’état réel de l’atmosphère, à un instant donné. A cette fin, de très importants travaux ont pour objectif d’utiliser au mieux le maximum d’observations [par ex. Rabier et al., 2000]. Par rapport aux modèles de prévision météorologique, une spécificité essentielle des modèles climatiques est de pas être du tout rappelés vers des observations. Le système climatique évolue totalement librement. Il reçoit de l’énergie sous forme de rayonnement solaire et en perd sous forme de rayonnement infra-rouge émis vers l’espace. Le climat simulé (vent, température,…) est le résultat de cet ajustement entre énergie reçue et énergie perdue. La conservation de l’énergie, et de façon plus générale les échanges d’énergie sont donc fondamentaux pour un modèle climatique, et leur modélisation est la première préoccupation des climatologues. Pour pouvoir assurer cette cohérence énergétique, les modèles climatiques prennent en compte, avec des degrés d’approximation divers, l’ensemble des milieux intervenant dans le cycle énergétique et le cycle de l’eau (atmosphère, surface continentale, océan, glace de mer, glacier et calotte polaire) ainsi que les échanges entre ces milieux (échange de chaleur, évaporation, précipitation, écoulement par les rivières, fonte des glaciers…). En France, deux modèles climatiques ont été développés, par le CNRM et par l’IPSL. Ils diffèrent principalement par la composante atmosphérique. Le modèle CNRM-CM3 utilise « ARPEGE-Climat », une version du modèle de prévision météorologique de Météo-France spécifiquement adaptée pour les études climatiques. La composante atmosphérique du modèle de l’IPSL est « LMDZ », modèle spécifiquement développé pour les études du climat terrestre et des atmosphères planétaires (Mars, Titan, Vénus…). Les deux modèles climatiques, CNRM-CM3 [Salas-Mélia et al., 2005] et IPSL-CM4 [Marti et al., 2005], ont la même structure (Tableau 1). Le modèle atmosphérique est couplé d’une part à un modèle de surface continentale qui inclue une représentation de la végétation et d’autre part avec un modèle océanique qui gère aussi l’évolution de la glace de mer. Du point de vue technique, le couplage atmosphère-océan se fait une fois par jour au travers du coupleur OASIS [Valcke et al., 2004] développé au CERFACS, alors que le modèle de surface continentale est couplé directement à l’atmosphère, à chaque pas de temps, notamment en raison de la nécessité de décrire explicitement le cycle diurne, c’est à dire les variations d’ensoleillement, de température… au cours de la journée. Comme nous l’avons expliqué ci-dessus, le climat simulé (vent, température,…) par les modèles est le résultat de l’ajustement entre l’énergie reçue et l’énergie perdue par la Terre, ajustement qui dépend de la façon dont les différents échanges de chaleur et de masse sont représentés dans les modèles. En particulier, une erreur sur les flux de chaleur à la surface des continents ou des océans se traduit directement par un écart entre la température de surface simulée et celle observée. Il y a encore quelques années, ces erreurs sur les flux étaient telles que des corrections ad-hoc des flux de chaleur, d’eau ou de tension de vent à l’interface air-mer étaient appliquées à de très nombreux modèles climatiques afin d’éviter que les températures de surface simulées ne s’éloignent trop de celles observées [GIEC, 2001]. Nous n’appliquons pas ces corrections de flux (de même que la majorité des modèles climatiques actuels) et l’écart entre les valeurs simulées de la température de surface de celles observées sera un indicateur de l’erreur sur les valeurs calculées des flux. Même sans ces corrections de flux, les résultats des models actuels sont dans l’ensemble nettement meilleur aujourd’hui qu’il y a cinq ans, ce qui est une bonne illustration des progrès réalisés. 4- Caractéristiques générales des simulations réalisées Stabilité des simulations de contrôle Pour la simulation de contrôle (comme pour toute simulation) il faut tout d’abord définir un état initial de l’atmosphère et de l’océan. La procédure d’initialisation que nous avons retenue est la même pour les deux modèles climatiques. L’état initial de l’atmosphère et de l’océan correspond à un état du climat actuel déduit des observations. Les concentrations des gaz à effet de serre et des aérosols sont prescrites à leur valeurs à l’époque pré-industrielle (année 1860). Une simulation est ensuite réalisée pendant plusieurs dizaines d’années jusqu’à ce que le climat simulé tende vers un état d’équilibre, c’est à dire que le système climatique reçoive autant d’énergie du soleil qu’il en perd sous forme de rayonnement infrarouge et que les températures de surface demeurent à peu près stables… Lorsque l’on considère que la simulation a effectivement atteint (ou qu’elle est très proche) de cet état de quasi-équilibre, on choisit de façon arbitraire un jour particulier comme état initial de la simulation de contrôle. Cette simulation a ensuite été prolongée pendant 500 ans, en maintenant les paramètres de forçage (gaz à effet de serre, aérosols…) toujours constants, à leur valeur pre-industrielle. Nous avons pu vérifier que le climat était bien stable: par exemple la température moyenne de surface de la Terre varie pendant les 500 ans d’environ 0,2°C pour le modèle de l’IPSL et de 0,5°C pour le modèle du CNRM.

Nous avons vu précédemment que le forçage radiatif est une grandeur qui permet de caractériser l’effet d’une perturbation sur l’équilibre énergétique de la Terre, a climat fixé. Pour ce calcul, on utilise uniquement un modèle radiatif et non le modèle climatique complet. Sur la figure 3 sont représentées les évolutions du forçage radiatif total dû aux activités humaines, ainsi que la contribution des différents gaz ou des aérosols sulfatés à ce forçage. Ces forçages sont calculés en prenant comme référence les concentrations des gaz en 1860 et en considérant que toutes les caractéristiques de l’atmosphère et de la surface restent inchangées par rapport à l’époque préindustrielle. Les gaz à effet de serre produisent un forçage positif, ce qui contribue à augmenter la température de surface de la Terre, alors que les aérosols sulfatés produisent un forçage négatif, qui induit un refroidissement. L’augmentation progressive du forçage à partir de 1860 est bien visible sur cette figure, augmentation qui s’accélère dans les années 1960. Pour le scénario SRES-A2 l’augmentation actuelle continue jusqu’en 2100, alors que pour le scénario SRES-B1 cette augmentation diminue progressivement et le forçage radiatif est stabilisé vers la fin du siècle. Le forçage radiatif total augmente principalement à cause de l’augmentation de la concentration en CO2, suivi par celle du méthane (CH4) dont on pense aujourd’hui qu’elle a été surestimée dans les prévisions futures. A partir des années 1960, la contribution « d’autres » gaz, dont notamment les CFC (connus sous le nom de « fréons ») et leurs remplaçants, les HFC, apparaît clairement. Plusieurs de ces gaz n’existaient pas avant leur introduction par l’homme. L’amplitude du forçage des aérosols sulfatés suit à peu près l’augmentation du CO2 de 1860 jusque vers les années 1980-2000. A partir des années 2020-2040, selon les scénarios, l’amplitude de ce forçage stagne puis décroît. C’est principalement à cause de la diminution des émissions de SO2. Jusque vers les années 1980, l’amplitude du forçage radiatif des aérosols sulfatés est égale à environ un tiers de celle des gaz à effet de serre. En d’autre termes, ces aérosols ont réduit de 0,5°C l’accroissement de température dû à l’augmentation de la concentration des gaz à effet de serre [Dufresne et al., 2005]. Cet effet de réduction diminue fortement par la suite, pour devenir négligeable à la fin du siècle. Evolution de la température moyenne de surface Nous avons réalisé des simulations avec les modèles climatiques en augmentant progressivement la concentration des gaz à effet de serre et des aérosols depuis140 ans (1860-2000) et pour les 100 prochaines années selon différents scénarios. L’état initial de l’atmosphère et de l’océan est le même que celui de la simulation de contrôle. La figure 4 présente l’évolution de la température de l’air à la surface de la Terre, en moyenne globale, de 1860 à 2100. Nous verrons ci-après que les modèles sont trop froids de 0,5°C et 0,7°C respectivement pour le modèle du CNRM et celui de l’IPSL. Sur la figure 4 nous avons corrigé de leurs biais les températures simulées de sorte que les moyennes globales de chacun des modèles et des observations soient identiques sur la période récente (1970-2000). Sur la période 1860-2000, les deux modèles simulent bien un accroissement de la température moyenne du globe, comme dans les observations. Toutefois celui-ci est surestimé, surtout pour le CNRM. Une comparaison plus précise avec les observations nécessiterait de prendre en compte les forçages naturels (constante solaire, éruptions volcaniques…) et de réaliser un ensemble de simulations pour étudier la façon dont l’évolution du climat au 20e siècle dépend de l’état initial de l’océan. Ce travail est actuellement en cours. Pour les deux modèles, l’accroissement de température depuis les années 1960 est bien simulé, ce qui est important car c’est depuis cette période que les perturbations dues aux activités humaines sont particulièrement fortes. Entre 2000 et 2100, les deux modèles simulent un accroissement de température quasiment identique pour le scénario SRES-A2 (fortes émissions): 3,5°C par rapport à la température d’aujourd’hui, et 4,5 à 5°C par rapport à celle de 1860. Pour le scénario SRES-B1, avec des émissions plus faibles, l’accroissement de température est réduit de moitié environ. Pour le scénario où l’on maintenait la concentration de CO2 constante, à sa valeur d’aujourd’hui, la température continue de croître très légèrement, du fait de l’inertie thermique du système (figure 4). 5- Climatologie des modèles L’analyse du climat simulé par les modèles et la comparaison aux observations est une étape très importante pour asseoir la crédibilité des modèles climatiques. Ce travail représente une fraction importante de l’activité des climatologues qui analysent non seulement l’état moyen, mais aussi les variabilités du climat à différentes échelles de temps (de quelques jours à quelques dizaines d’années) ou encore les variations du climat passé. Dans ce paragraphe nous présentons quelques caractéristiques du climat moyen simulé par les modèles et, sauf indication contraire, les comparaisons sont réalisées sur la période 1960-1989. En moyenne annuelle, le rayonnement solaire incident est plus élevé aux basses latitudes (régions équatoriales et tropicales) qu’aux hautes latitudes, ce qui est à l’origine de la différence de température entre l’équateur et les pôles. En l’absence de circulation atmosphérique et océanique, ce seul facteur « solaire » induirait une différence de température entre l’équateur et les pôles de 85°C [James, 1995]. Mais toute différence de température induit une circulation de l’atmosphère et de l’océan, circulation qui transporte de l’énergie et donc modifie les températures. Ainsi la différence de température entre l’équateur et les pôles est à la fois le moteur des circulations atmosphériques et océaniques, et en même temps contrôlée par ces circulations, qui tendent à réduire cette différence de température. Elle est également influencée par la présence de nuages, de surfaces très réfléchissantes (neiges, glaciers…), de grands massifs montagneux… Les modèles simulent bien ce fort contraste équateur-pôle: la température simulée varie de 25°C à l’équateur à -20°C au pôle nord et -40°C au pôle sud, comme dans les observations (Figure 5, haut). Si on considère la moyenne sur tout le globe et sur toute l’année, les modèles simulent une température de l’air à la surface de la Terre assez proche de celle observée: elle est trop froide de 0,5°C et 0,7°C respectivement pour le modèle du CNRM et celui de l’IPSL. Sur la figure 6, nous avons représenté la distribution géographique de la différence entre la température de surface simulée par les modèles et celle observée, pour bien faire ressortir les défauts des modèles. Pour le CNRM, il y a un biais froid relativement uniforme, un peu plus prononcé sur l’Afrique, avec un biais chaud dans le sud de l’océan austral. Pour l’IPSL, la température simulée est proche de celle observée dans les régions équatoriales et sub-tropicales, avec un fort biais froid dans les moyennes latitudes, notamment dans l’hémisphère nord. La variation annuelle du rayonnement solaire est, en dehors du cycle diurne, la plus forte « perturbation » énergétique à laquelle est soumise la surface de la Terre. Pour décrire l’amplitude du cycle saisonnier de température de l’air en surface, nous utiliserons ici simplement la différence entre la température moyenne du mois le plus chaud et celle du mois le plus froid. La distribution de ce cycle saisonnier est représentée soit directement (fig. 7), soit en moyenne zonale (Fig. 5, bas). On remarque tout d’abord que le cycle saisonnier est plus fort aux hautes qu’aux basses latitudes. Cela a pour origine l’amplitude saisonnière du rayonnement solaire incident au sommet de l’atmosphère qui est beaucoup plus forte aux hautes latitudes (où le rayonnement incident journalier varie de 0 à 500 W.m-2 au cours de l’année) qu’à l’équateur (où ce rayonnement varie de 380 à 440 W.m-2). On remarque ensuite que l’amplitude saisonnière des températures est plus élevée au-dessus des continents qu’au-dessus des océans. Cela est principalement dû à l’inertie thermique de la surface, qui est beaucoup plus faible sur continent que sur océan. Sur les continents de l’hémisphère nord, aux moyennes et hautes latitudes, l’amplitude saisonnière est plus faible sur la façade ouest que sur la façade est à cause de la circulation atmosphérique: la circulation étant principalement dirigée d’ouest en est dans ces régions, elle propage au-dessus de la façade ouest des continents l’effet de l’inertie thermique des océans. Ces caractéristiques générales sont bien reproduites par les modèles (Fig. 7). On pourra néanmoins remarquer des différences tel un cycle saisonnier trop fort pour les deux modèles au-dessus du Sahara, trop faible dans le nord-est de l’océan Pacifique pour le modèle IPSL-CM4, et trop fort dans l’océan austral pour le modèle CNRM-CM3. Dans la bande de latitude 60°S-40°S, le modèle du CNRM a une température proche des observations pendant l’hiver austral, mais environ 3°C plus élevée pendant l’été (décembre à février). La formation des précipitations fait intervenir de très nombreux processus, la plupart étant de toute petite échelle. Leur modélisation dans les modèles climatiques globaux nécessite de nombreuses approximations, et les précipitations demeurent une des grandeurs que les modèles ont le plus de difficultés à simuler correctement. De façon très générale, les pluies sont les plus abondantes dans les régions équatoriales, au dessus des océans. Le maximum des précipitations se trouve dans la zone de convergence inter-tropicale (ZCIT), zone qui correspond à la branche ascendante de la circulation de Hadley-Walker et qui se déplace en fonction des saisons. En moyenne annuelle, les observations (Fig. 8) donnent un maximum vers 10°N, indiquant que cette zone de convergence reste principalement localisée dans l’hémisphère nord, pour des raisons qui ne sont d’ailleurs pas encore bien comprises. Les deux modèles ont par contre deux maxima situés de parts et d’autres de l’équateur, défaut qui est partagé par de nombreux autres modèles climatiques. Dans la ceinture sub-tropicale, vers 30° nord et sud, on voit clairement que les précipitations sont très faibles, notamment à l’est des bassins océaniques et sur les continents. Ces régions sont des zones de haute pression et correspondent aux branches descendantes de la cellule de Hadley-Walker. Ces minima de précipitations sont bien représentés dans le modèle de l’IPSL mais ont une surface trop réduite dans le modèle du CNRM. Aux moyennes latitudes, on retrouve des maxima de précipitations au dessus des océans, dans des régions qui correspondent aux “routes des dépressions”, c’est à dire au passage des coups de vent d’ouest qui ont lieu principalement en hiver. Ces maxima sont assez bien simulés par les deux modèles. Les pluies sur l’Inde et l’Afrique de l’ouest sont régis par les régimes de mousson. Le modèle du CNRM simule correctement ces précipitations alors que celui de l’IPSL les sous-estime. Il sous-estime également les pluies au centre de l’Amérique du sud.

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *