Cartographie des écosytèmes et paramètres biophysiques pour l’étude des flux hydriques sur le continent africain

Cartographie des écosytèmes et paramètres biophysiques pour l’étude des flux hydriques sur le continent africain

Cartographie de l’occupation des sols 

La définition de l’occupation des sols est fondamentale parce que dans plusieurs classifications et nomenclatures existantes, elle se confond à celle de l’utilisation des sols. L’occupation des sols est le couvert biophysique observé à la surface de le terre tandis que l’utilisation des sols se caractérise par les activités anthropiques entreprises sur un type d’occupation des sols afin de le modifier ou de le maintenir (Di Grégorio et Jansen, 2000). Ainsi l’occupation des sols est un facteur déterminant de l’utilisation des sols et donc des valeurs des actions anthropiques sur l’environnement. En effet, des actions anthropiques telles que la création des clairières dans des zones forestières à des fins agricoles affecte la distribution de l’occupation des sols qui altère à son tour le fonctionnement du système climatique (Sellers et al., 1996). Au même moment le climat est le principal facteur responsable de la distribution de la végétation naturelle et donc de l’occupation des sols en l’absence d’actions anthropiques. L’importance grandissante de la planification et de la gestion environnementale a donc conduit à l’émergence de divers efforts nationaux, régionaux, continentaux et globaux de cartographie d’occupation des sols par des gouvernements et des organisations indépendantes afin de supporter le développement durable et la gestion intégrée des ressources. 15 Après la production au milieu des années 1980 des premières cartes globales d’occupation des sols par compilation d’atlas et de cartes existantes (Mathews, 1983 ; Olson et al., 1983 ; Wilson et Henderson-Sellers, 1985), l’imagerie satellitaire est devenue une technologie idéale pour la classification de l’occupation des sols sur de larges domaines (Cihlar, 2000). La grande disponibilité des observations spatialement étendues acquises par le capteur Advanced Very High Resolution Radiometer (AVHRR) – mis en service dès la fin des années 1970 – à bord de la série des plates-formes météorologiques de la National Oceanic and Atmospheric Administration (NOAA) a incité la communauté scientifique à développer des méthodes de caractérisation de l’occupation des sols sur de larges domaines (Tucker et al., 1985) et éventuellement à produire des cartes globales d’occupation des sols (Defries et al.,1995). Grâce à la capacité potentielle du capteur AVHRR d’observer de façon systématique diverses échelles et à la possibilité actuelle de pouvoir consulter les observations archivées de l’instant présent à des décennies antérieures, les premiers produits globaux d’occupation des sols à 1 km de résolution ont vu le jour. Loveland et al. (2000) ont développé le produit International Geosphere-Biosphere Programme Data and Information System (IGBP DISCover) continent par continent en utilisant des données composites mensuelles élaborées à partir des observations AVHRR acquises entre avril 1992 et mars 1993. Ils ont également utilisé lors de la phase d’interprétation des données auxiliaires telles que les cartes disponibles d’occupation et d’utilisation des sols, l’information topographique et climatique. Avec ces mêmes données spectrales, Hansen et al. (2000) ont produit la carte de l’Université du Maryland (UMD). La carte résultante montre une bonne séparabilité en 14 classes globales (5 classes de forêt, 2 classes de savane arborée, 2 classes de savane arbustive, 5 autres classes bien développées). Masson et al. (2003) ont généré la carte d’occupation du Centre National de Recherches Météorologiques de Météo France (ECOCLIMAP-I) en combinant plusieurs cartes globales d’occupation des sols telles que IGBP DISCover et UMD, mais également la carte CLC1993 d’occupation des sols des pays de la communauté européenne ou European Community (EC., 1993). En outre, l’information climatique issue de la carte globale de Koppe 16 et De Long (1958) et de la carte FIRS de la communauté européenne (EC, 1995) a aussi été prise en compte. En raison de l’émergence de capteurs de nouvelle génération (qui possèdent forcément une meilleure résolution spatiale, spectrale, temporelle et radiométrique que l’AVHRR), un effort important a été effectué en vue d’améliorer l’information sur la distribution spatiale et les proprités des classes d’occupation des sols. Le Joint Research Center a produit la carte GLC2000 à partir des données majoritairement acquises par le capteur SPOT/VEGETATION au cours de l’année 2000 (Bartholomé et Belward, 2005). L’Agence Spatiale Européenne (ESA) a élaboré le produit GLOBCOVER en utilsant les données du capteur MERIS embarqué sur la plate-forme ENVISAT (Arino et al. 2008). Depuis le début des années 2000, la NASA génère une carte annuelle d’occupation des sols à partir des observations MODIS (Friedl et al., 2010). Le projet AFRICOVER de l’Organisation des Nations Unies pour l’alimentation et l’agriculture (FAO, 2004), a permis de cartographier l’occupation des sols de plusieurs pays africains à une résolution spatiale de 30 m (FAO, 2004). Les types d’occupation des sols ont été identifiés par interprétation visuelle des données LANDSAT par des experts. De ce fait, ces cartes nationales présentent un niveau de détail très élevé mais souffrent d’une large inconhérence à cause de l’hétérogénéité des dates d’acquisition et d’interprétation d’une scène à l’autre. La reconnaissance d’un comportement phénologique par l’analyse des séries temporelles d’images satellitaires ainsi que leur transcription en une carte thématique appropriée qui ont été entreprises lors des études mentionnées ci-dessus font référence à des techniques de classification (Jain et al., 1999 ; Lu et We,g, 2007 ; Nakache et Confais, 2004) Les décisions critiques lors de ces différentes initiatives de cartographie sont liées au choix : (i) des données utilisées en entrée notamment leur qualité et leurs caractéristiques (résolution, disponibilité) (Cihlar, 2000). La qualité des données est fonction des prétraitements initialement appliqués aux valeurs brutes afin de réduire les incertitudes en effectuant des corrections radiométriques (étalonnage, détection 17 des nuages/aérosols, normalisation directionnelle) et des corrections géométriques (géoréférencement, rééchantillonnage, mosaïquage). La résolution temporelle est une considération critique lors du choix des données appropriées à cause du changement d’occupation des sols dans le temps tandis que la résolution spatiale est fonction de l’échelle du domaine d’intérêt. La disponibilité ou archivage définit la période d’intérêt des données tandis que les différentes résolutions limitent l’exactitude de l’information pouvant être extraite. (ii) des données auxiliaires (Lu et Weng, 2007) telles que le masque terre-mer, l’information texturale, topographique, climatique, démographique, etc. (iii) de la période de couverture temporelle qui est une composante critique lors du choix des données d’entrée (Xie et al., 2008) car l’occupation des sols change dans le temps ; (iv) d’une nomenclature adéquate pour l’usage des données de télédétection. La nomenclature d’Anderson et al. (1976) qui agrège les cultures et herbacées au niveau I ne produira pas le même nombre de classes que la nomenclature de la FAO (Di Gregorio et Jansen, 2000) qui diffère ces deux classes au même niveau ; (v) la méthodologie de classification à cause de leur imperfectibilité (Landgrebe, 2003). En effet, il n’existe pas de méthode de classification qui puisse être utilisée de façon universelle pour tout type d’usage. Son choix est dicté par les besoins de l’utilisateur, la résolution spatiale des données d’entrée, les différentes sources de données et la nomenclature. Ainsi donc, la réponse à la question de savoir quelle approche de classification est meilleure pour une étude spécifique n’est pas aisée à fournir. Très utilisée dans diverses applications telles que le traitement d’images, les statistiques, la biologie, mais également les sciences humaines, la classification est une opération qui a pour but de ranger les objets (individus ou variables) en se basant sur leur similarité en un nombre limité de groupes (Nakache et Confais, 2004). Chaque groupe, appelé cluster, comprend des objets -des pixels dans notre cas- ayant des caractéristiques similaires et 18 sépare des objets ayant des caractéristiques différentes (i.e. homogénéité interne et hétérogénéité externe). En accord avec Jain et al. (1999), quelque soit la méthode de classification appropriée choisie, celle-ci peut être caractérisée à l’aide de trois propriétés : (i) le type d’algorithme pouvant être automatique ou non, et dans ce cas on parle de classification non supervisée (e.g. Loveland et al., 2000) ou supervisée (e.g. Hansen et al., 2000) respectivement. Il serait cependant fastidieux de croire en l’existence d’une classification absolument automatique, i.e. sans la moindre intervention humaine dans le processus de classification ; (ii) la structure de la classification qui peut être hiérarchique tel que la nomenclature Land Cover Classification System (LCCS) prescrite par la FAO (Di Gregorio et Jansen, 2000) ou par partition telle que la nomenclature IGBP du service géologique américain (USGS) (Loveland et Belward, 1997); (iii) la structure des classes qui peut être rigide (chaque comportement est assigné à une classe et une seule) (e.g. Arino et al., 2008) ou floue (chaque comportement a un degré variable d’appartenance dans une classe) (e.g. Shalan et al., 2003). La propagation d’incertitudes et d’erreurs dans la chaîne de traitement des images est un facteur important qui influence l’exactitude de la classification. L’identification du maillon faible dans la chaîne et la réduction des incertitudes sont primordiales pour l’amélioration de l’exactitude de la classification. A cet effet, les techniques de classification, de plus en plus perfectionnées, ne cessent de voir le jour afin de déterminer les différentes variétés structurelles du paysage avec la meilleure fiabilité possible. On peut citer les classifications basées sur les réseaux de neurones (Berberoglu et al., 2000), les systèmes experts (Stefanov et al., 2001), l’approche contextuelle (De Jong et al., 2001), les ensembles flous (Shalan et al., 2003), les algorithmes basés sur la connaissance tels que le ‘raisonnement évidentiel’ (e.g. Sun et al., 2008) et de plus en plus on note l’apparition des combinaisons de plusieurs classificateurs (Huang et Lee, 2004 ; Lo et Choi, 2004). En ce qui nous concerne, nous ferons appel ici aux modèles non-empiétants que sont les partitions et les hiérarchies de parties car ici les objets ou pixels sont décrits par des variables quantitatives. Le lecteur 19 pourra se référer aux travaux de Landgrebe (2003), Lu et Weng (2008) ou Tso et Mather (2001), pour une taxonomie approfondie des spécificités des méthodes de classification d’images.

Estimation des variables biophysiques de surface 

La modélisation des processus de surface passe par différentes étapes : identification des mécanismes, formalisation, étalonnage et validation. A l’exception de la formalisation, il est nécessaire de pouvoir disposer d’une série d’observations répétitives pour la réalisation de ces étapes. La télédétection offre donc un potentiel important car elle permet d’acquérir une quantité importante d’information sur la surface terrestre à diverses échelles spatiales et temporelles variées. Cependant, les observations satellitales ne produisent pas directement les variables d’état médiatrices encore appelées variables biophysiques qui décrivent la structure du couvert, les propriétés optiques des éléments, ou des caractéristiques dérivées utiles au bilan radiatif dans les LSM. Ce qui a conduit la communauté scientifique à mettre au point une panoplie de méthodes permettant d’estimer les caractéristiques biophysiques de la surface à partir des observations satellitales. Ces méthodes peuvent être classifiées en deux groupes : les méthodes statistiques et les méthodes physiques (Baret et Buis, 2007 ; Liang, 2004). Les méthodes statistiques sont principalement basées sur des relations fonctionnelles empiriques avec une diversité d’indices de végétation (IV) (i.e., combinaison algébrique des réflectances de surface) qui fournissent une information sur la structure et l’état de la végétation. Ces relations ont été spécifiquement calibrées pour des types de végétation distincts en utilisant des meures in situ et des réflectances mesurées (Fernandes et al., 2003 ; Houldcroft et al., 2009 ; Los et al., 2000 ; Noilhan et Mahfouf, 1996 ; Masson et al., 2003). Parmi les IV les plus communément utilisés, on peut par exemple citer le ratio vegetation index (RVI) (Knipling, 1970), le normalized difference vegetation index (NDVI) (Rouse et al., 1973), le soil adjusted vegetation index (SAVI) (Huete, 1988), l’atmospherically resistant vegetation index (ARVI) (Kaufman et Tanré, 1992), et le global environment- 20 monitoring index (GEMI) (Pinty et Verstraete, 1992). De tous ces indices, le NDVI, défini comme étant la différence entre le proche infrarouge et le rouge divisé par la somme des deux (Rouse et al., 1973), est sans aucun doute le plus usité car il s’aménuise de la sensibilité à des facteurs exogènes tels que le sol, l’atmosphère et les effets angulaires ; facteurs essentiels lors de la discrimination des classes d’occupation des sols. En outre le NDVI répond favorablement aux changements de la quantité de biomasse verte (Hill et Donald, 2003), du contenu en chlorophylle (Dawson et al., 2003), à la présence de feu (Gabban et al., 2006), et à la variabilité climatique (Anyamba et al., 2002 ; Philippon et al., 2007). Les méthodes statistiques supposent que les variations des réflectances de surface sont dues aux variations d’une seule variable biophysique, et négligent l’impact des variations des conditions atmosphériques, des illuminations d’éclairement et de visée, des propriétés du sol, etc. De telles méthodes sont relativement faciles à implémenter et peuvent fournir des résultats optimaux lorsqu’elles sont appliquées à des échelles locales d’un site de validation, où des d’intensives mesures in situ ont été effectuées. Les modèles physiques constituent une alternative aux méthodes statistiques et elles sont généralement basées sur l’usage des modèles de transfert radiatif par résolution numérique de l’équation du transfert radiatif afin d’établir une relation entre les variables biophysiques et les réflectances de surface pour des comportements donnés de réflectance du sol, des conditions d’éclairement et de visée, des propriétés optiques de la végétation et d’autres paramètres. Les variables biophysiques sont soit issues des simulations des modèles de transfert radiatif de la canopée (e.g. Myneni et al., 1999), soit basées sur des techniques d’inversion des modèles de transfert radiatif simulant les variables d’intérêt à partir des caractéristiques structurelles de la canopée (e.g. Baret et al., 2007). Les tables de correspondance (Knyazikhin et al., 1998) et les réseaux de neurones (Bacour et al., 2006) sont les principales techniques d’inversion. Pour cette approche, des vérités terrain sont principalement utilisées pour calibrer les paramètres des modèles. Les majeurs inconvénients de la méthode sont (i) la collecte laborieuse de certains paramètres du modèle 21 tels que l’information sur la structure de la canopée, et (ii) la non unicité de la solution de l’équation du transfert radiatif. Indépendamment de l’approche utilisée, trois sources majeures d’incertitudes affectent l’estimation des variables biophysiques à partir des surfaces de réflectance (Garrigues et al., 2008 ; Yang et al., 2006). A cause de la nature mal-posée du problème d’inversion, l’estimation des variables biophysiques de surface à partir des réflectances de surface est instable, i.e. de légères variations de la réflectance de surface peuvent induire de larges variations des variables biophysiques estimées. La seconde source d’incertitude est liée à la manière avec laquelle l’architecture de la canopée est représentée dans l’algorithme d’estimation des variables biophysiques (e.g. prise en compte ou non de du phénomène de groupage). La dernière source d’incertitude concerne l’applicabilité de l’algorithme à une gamme de type de végétation et de conditions environnementales. D’ailleurs, le nombre des classes d’occupation des sols peut être assez faible pour représenter la variabilité globale de la structure de la végétation. Afin d’éliminer les résidus atmosphériques, la contamination par les nuages et éventuellement les effets d’illumination et de visée (Schaaf et al., 2002 ; Roujean et al., 1992), des étapes de pré- ou post- traitement peuvent être appliquées pour la fusion de l’information disparate et complémentaire (tant sur le plan spatial que spectral) produite par les capteurs multi-spectraux au niveau du pixel (Pohl et Van Genderen, 1998), notamment: (i) les combinaisons arithmétiques qui permettent d’améliorer le contraste à l’aide des additions/multiplications ou de détecter des changements à l’aide des différences/rapports ; (ii) l’analyse en composantes principales utilisée lors du cryptage, de la compression, de la détection des changements et de la dimensionnalité multitemporelle des images ; (iii) les filtres passe-haut qui mettent en valeur la résolution spatiale en combinant l’information spatiale et spectrale des données multispectrales ; 22 (iv) la substitution des variables par une régression qui est utilisée pour déterminer une combinaison linéaire des images en maximisant la corrélation avec les données individuelles ; (v) les ondelettes qui créent une image comme combinaison linéaire de fonctions élémentaires à partir d’une des fonctions arbitraires d’un espace fini

Table des matières

Introduction
I. Contexte scientifique
1.1 Objectifs scientifiques
1.2 Etat de l’art
1.3 Caractéristiques du continent Africain
1.4 Principales données satellitales utilisées
1.5 Description des besoins en météorologie
II. Forçage physiographique sur la zone ‘AMMA’
2.1 Introduction
2.2 Choix et prétraitements des données
2.3 Méthode de classification supervisée
2.4 Estimation des variables biophysiques de surface
2.5 Evaluation de la nouvelle physiographie
2.6 Résumé et conclusion
III. Le produit ECOCLIMAP-II sur l’Afrique
3.1 Introduction
3.2 Prétraitements des données d’observations de la terre
3.3 Classification non supervisée
3.4 Validation des produits
3.5 Résumé et conclusion
IV. Sensibilité de la modélisation des flux hydriques dans
ISBA au forçage physiographique
4.1 Introduction
4.2 Le modèle de surface ISBA standard
4.3 Données et méthodologie
4.4 Distribution spatiale des différences à l’échelle régionale
4.5 Résultats
4.6 Discussion et conclusion
Conclusion
Bibliographie
Liste alphabétique des sigles
Liste alphabétique des symboles
Liste des tableaux
Annexe A : Systèmes spatiaux d’acquisition d’images
A.1 Bref historique
A.2 Termes et concepts de base
Annexe B : Evaluation d’une classification
Annexe C : Interpolation
Annexe D : Bilans hydriques et énergétiques dans ISBA 7
D.1 Bilan énergétique
D.2 Bilan hydrique
Annexe E : Production scientifique

projet fin d'etude

   Télécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *