Contribution à la modélisation spatiale des événements extrêmes

La théorie des valeurs extrêmes a longtemps reçu beaucoup d’attention sur le plan théorique. Depuis quelques décennies, cette théorie est devenue incontournable dans la modélisation des événements extrêmes. Le développement des outils informatiques et les entrepôts de données bien fournis permettent de nos jours de diversifier les domaines d’applications de la théorie des valeurs extrêmes. Ainsi, les domaines d’applications de cette théorie sont très variés : hydrologie, biologie, ingénierie, gestion de l’environnement, météorologie, finance, assurance, sciences sociales, etc. Cette théorie est associée aux phénomènes dits rares voire même improbables.

Les phénomènes rares et/ou catastrophiques dominent l’actualité quotidienne par leur caractère imprévisible. Ils sont variés et souvent de caractères physiques en particulier les catastrophes naturelles : les séismes, les éruptions volcaniques, les tsunamis, les mouvements de terrain, les inondations, les tempêtes, les cyclones, les orages etc faisant ainsi des ravages sur leur passage. Les exemples ci-dessous illustrent les dégâts matériels et humains que peut engendrer un événement catastrophique rare.

À l’échelle mondiale, on recense annuellement environ un millier de grandes catastrophes « naturelles » en majeure partie provoquées par les crues, événements naturels les plus fréquents et les plus destructeurs ; leurs causes initiales sont toujours météorologiques : moussons, cyclones, tempêtes (Source Wikipédia (2016)).

En confondant les effets désastreux de certains de ces événements avec les causes des catastrophes qui en résultent, il a été longtemps considéré que les causes étaient des punitions et que les effets étaient inéluctables, fatals, prescrits… La science et la technique permettent maintenant de caractériser les événements, de prévoir leurs effets, d’établir et distinguer les causes naturelles d’avec les causes humaines des catastrophes pour améliorer la prévention et la gestion des secours.

Approche probabiliste

L’approche standard en théorie des probabilités place l’accent sur le comportement en moyenne et la variabilité autour de la moyenne, par le biais d’outils probabilistes comme par exemple la loi des grands nombres, le théorème central limite ou encore l’analyse de la variance. Cette approche ne fournit pas d’informations fiables sur les évènements extrêmes c’est-à-dire sur les queues de distributions des événements. Pour caractériser et quantifier le comportement de ces événements extrêmes, une  nouvelle théorie est nécessaire, la Théorie des Valeurs Extrêmes (TVE). Cette théorie englobe des modèles stochastiques extrêmes adéquats pour modéliser et décrire la survenue et l’intensité d’évènements dits rares c’est-à-dire qui présentent des variations à très grandes amplitudes ou à très faibles amplitudes et ayant une très faible probabilité d’apparition. L’étude des lois de ces événements extrêmes n’est possible que si le comportement de ces derniers est dû au hasard (notion de probabilité). Ils sont dits extrêmes quand il s’agit de valeurs beaucoup plus grandes ou plus petites que celles observées habituellement. La modélisation de tels événements est de nos jours un champ de recherches particulièrement actif due notamment à l’importance de leurs impacts socio-économiques et à la longue collecte de données enregistrant de tels événements. L’analyse des valeurs extrêmes requiert l’estimation d’un indice de queue qui donne une indication essentielle sur la forme de la queue de distribution des événements.

Cette théorie développée par Fisher et al. (1928) sur les lois limites possibles du maximum d’un échantillon a montré que la théorie des valeurs extrêmes était quelque chose de spécial et pas comme la théorie classique de la limite centrale. Depuis, ce résultat de Fisher et al. (1928) a été étudié par Gnedenko (1943) qui obtient rigoureusement la convergence, dont la preuve fut simplifiée par Haan (1976). L’unification de ce résultat est due aux travaux de Von Mises (1936) et Jenkinson (1955). Cette analyse repose principalement sur des distributions limites des extrêmes et leurs domaines d’attraction. Cependant, on y retrouve deux modèles:
• La loi généralisée des valeurs extrêmes (GEV : «Generalized Extreme Value»),
• La loi de Paréto généralisée (GPD : «Generalized Pareto Distribution»).

Par définition, les événements extrêmes sont peu nombreux de par leurs fréquences d’apparitions rares voir même inexistants rendant ainsi leurs modélisations difficiles. L’information la plus précise est celle contenue dans les valeurs observées les plus extrêmes. De ce fait, à partir de peu de données, on doit construire des modèles nous permettant d’extrapoler et de prédire un événement sans commune mesure ce qui conduit à deux problèmes en pratique.
• Le premier est lié à la taille de l’échantillon qui est souvent faible remettant en question l’applicabilité des résultats asymptotiques (La taille minimale n = 50 a été recommandée par Stedinger (2000) pour avoir des estimations robustes). Néanmoins, cette taille ne peut pas fournir assez d’informations si on s’intéresse à la prédiction d’événements extrêmes sur de longues périodes.
• Le second est dû au fait qu’une loi de probabilité ne donne pas toujours un bon ajustement dans toutes les applications (cf. Bobée & Rasmussen (1995)). Dans ce cas, il est nécessaire d’effectuer un classement des distributions en fonction du comportement de leurs queues et à partir de considérations physiques ou statistiques, d’établir des critères de discrimination entre les différentes classes dans le cas d’un échantillon de faible taille.

La théorie des valeurs extrêmes (TVE) fournit une base mathématique probabiliste rigoureuse sur laquelle il est possible de construire des modèles statistiques permettant de prévoir l’intensité et la fréquence de ces événements extrêmes. La TVE est très répandue ces dernières décennies dans la littérature car elle permet d’apporter des réponses à de nombreux problèmes pratiques et c’est dans ce contexte que la théorie des valeurs extrêmes développée par Fisher et al. (1928) a trouvé toute sa place. Les domaines d’applications utilisant les modèles de la TVE n’ont cessé de se développer ces dernières années. En hydrologie, le domaine d’application historique dû notamment aux travaux de Gumbel & Lieblein (1954), domaine dans lequel la prévision des crues par exemple est particulièrement importante (cf. Davison & Smith (1990) ; Katz et al. (2002)). En climatologie avec l’étude et la prédiction des évènements climatiques extrêmes comme les précipitations extrêmes, les canicules, les chutes de neige, les avalanches (cf. Rootzén & Tajvidi (2001) ; Heneka et al. (2006) ; Brodin & Rootzén (2009)). En météorologie où l’étude de la vitesse du vent, par exemple, permet d’évaluer le degré de résistance des matériaux face à la pression exercée par le vent (au cours d’une tempête par exemple) sur les bâtiments ou les structures de génie civil (cf. Coles & Walshaw (1994) ; Smith (2001) ; Klajnmic (2004) ; Khaliq et al. (2006) ; Davison et al. (2012)). En environnement, avec la modélisation de grands feux de forêts comme des événements extrêmes (cf. Alvarado et al. (1998) voir aussi Ferrez et al. (2011)). Dans les domaines des sciences humaines et sociales, plus particulièrement dans le domaine de la démographie, tout un débat qui a été initié par Gumbel (1937), auquel Fréchet a pris une part active, sur la notion de « durée extrême de la vie humaine » et sur sa mesure. Aarssen & Haan (1994) ; Han (2005) proposèrent des résultats afin de calculer l’âge limite possible de l’être humain. En assurance, avec l’étude de la survenue des sinistres d’intensité exceptionnelle qui peuvent avoir des conséquences négatives sur les résultats et la solvabilité des organismes d’assurance (cf. Barrois (1834) ; McNeil & Saladin (1997) ; Rootzén & Tajvidi (1997)). En finance, elle apporte une réponse immédiate à la remise en cause de l’hypothèse de normalité surtout avec les observations à hautes amplitudes (cf. Embrechts et al. (1997) ; Danielsson & de Vries (1997) ; Embrechts et al. (1999) ; McNeil & Frey (2000) ; Longin (2000) ; Gencay & Selcuk (2004)). Cependant, Bouleau (1991) met en garde sur les mauvaises utilisations de la théorie des valeurs extrêmes.

Table des matières

Introduction générale
1.1 Motivations
1.1.1 Approche probabiliste
1.1.2 Limites de cette approche
1.1.3 Domaines d’application
1.2 Présentation des travaux de recherche
1.3 Organisation de la thèse
2 Concepts fondamentaux
2.1 Introduction
2.2 Généralités sur la theorie des valeurs extrêmes
2.3 Généralités sur la statistique spatiale
3 On tail index estimation for random fields
3.1 Résumé en français
3.2 Introduction
3.3 Tail estimation
3.3.1 Infinite order spatial moving average framework
3.3.2 Mixing random fields framework
3.3.3 Conclusion and forthcoming studies
3.4 Appendix A1 : Tail empirical measure and technical lemmas
3.4.1 Tail empirical measure
3.4.2 Technical lemmas
3.5 Appendix A2 : Intermediate lemmas and proofs of main results
3.5.1 Appendix A21 : Convergence in probability
3.5.2 Appendix A22 : Intermediate results and their proofs
3.5.3 Appendix A23 : Asymptotic normality
4 On fixed-design conditional tail index and quantile estimation for random fields
4.1 Résumé en français
4.2 Introduction
4.3 Model
4.4 Defining the estimator
4.5 Estimating the conditional extreme quantiles
4.6 Assumptions and main results
Comments
4.7 A small simulation study
4.7.1 Models
4.7.2 Estimates of the conditional tail index
4.7.3 Estimates of the conditional extreme quantiles
4.8 Conclusion and forthcoming studies
4.9 Appendix : Technical lemmas and proofs of main results
4.9.1 Appendix A1 : Technical lemmas
4.9.2 Appendix A2 : Definitions and notations
4.9.3 Appendix A3 : Intermediate results and their proofs
4.9.4 Appendix A4 : Proofs of main results
5 On nonparametric conditional tail and extreme quantile estimation with random covariate in a spatial context
5.1 Résumé en français
5.2 Introduction
5.3 Model and definitions
5.3.1 Estimating the conditional tail index
5.3.2 Estimating the conditional extreme quantiles
5.4 Assumptions and main results
Comments 1
Comments 2
5.5 Conclusion
5.6 Appendix : Technical lemmas et proofs of main results
5.6.1 Appendix A1 : Technical lemmas
5.6.2 Appendix A2 : Notations and definitions
5.6.3 Appendix A3 : Intermediate lemmas
5.6.4 Appendix A4 : Intermediate lemmas
5.6.5 Appendix A5 : Proofs of main results
6 Conclusion générale

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *