Techniques de la statistique inférentiellea& -Tests d’adéquation

Techniques de la statistique inférentiellea& -Tests d’adéquation

Plus robustes, ces tests ont pour objet de vérifier qu’un échantillon provient ou non d’une variable aléatoire de distribution connue Fo(x). Dans ce travail, on décrit brièvement les trois tests les plus classiques : celui de Kolmogorov-Smirnov (D), du  2 et d‟Anderson-Darling (A 2 ). 

Test d’ajustement de Kolmogorov-Smirnov

Le test d’ajustement de Kolmogorov-Smirnov est un test non paramétrique qui permet de tester l’hypothèse selon laquelle les données observées sont engendrées par une loi de probabilité théorique continue, entièrement spécifiée, et sans paramètre inconnu pouvant être considérée comme étant un modèle convenable. Dans ce test, les calculs sur les lois de probabilité se font sur les fonctions de répartition: on mesure l’écart entre la fonction de répartition théorique F0(x) et la fonction de répartition observée F(x). La statistique du test est définie par la déviation maximale absolue (D), choisie parmi les N écarts. La procédure de calcul de cette statistique est la suivante : – classer la série par ordre croissant – affecter un rang i à chaque valeur de x (i = 1 pour xmin et i = N pour xmax) – calculer la probabilité empirique cumulée par la relation : F(xi) = i/N – calculer la probabilité théorique par le modèle à tester F0(xi) – calculer l‟écart absolue (Di) entre F(xi) et F0(xi) – extraire la statique du test D = max│F(xi) – F0(xi)│= │Di│=D – comparer la statistique D à une valeur critique D, N (tabulée) La Règle de décision est: – si D < D : Accepter l‟hypothèse d‟ajustement au niveau de signification . Les écarts constatés peuvent être attribués au hasard. 71 – si D ≥ D : Rejeter l‟hypothèse d‟ajustement au niveau de signification Les écarts constatés sont trop grands pour être attribués au seul hasard d‟échantillonnage. L‟exemple ci-dessous illustre le processus des calculs du test de Kolmogorov-Smirnov pour apprécier l‟ajustement des pluies journalières maximales à la station de Ain Babouche par les lois indiquées au tableau 32. En fonction de la plus petite valeur de la statistique du test, les lois de distribution GEV et Fr2p sont classées première et dernière, respectivement. Bien que toutes les distributions soient acceptées, on préfère, pour cet exemple précis, utiliser la distribution des Valeurs Extrêmes Généralisées. 

Test du Khi-deux de Pearson

Le test du Khi-deux (²) est un test non paramétrique qui permet de tester l’hypothèse selon laquelle les données observées sont engendrées par un modèle faisant intervenir une loi ou une famille de lois de probabilité. Le choix du modèle résulte de diverses considérations théoriques ou expérimentales et il importe de tester son adéquation. Le principe du test repose sur la définition d‟une fonction discriminante  2 qui constitue une mesure normalisée de l’écart entre les valeurs théoriques déduites du modèle probabiliste et les valeurs observées dans l’échantillon. Lorsque l‟hypothèse d‟ajustement n’est pas vraie, les valeurs de  2 augmentent et lorsqu‟elle est vraie,  2 suit, au moins asymptotiquement, une loi du ² de Pearson à ν degrés de liberté. La région critique du test est donc constituée des grandes valeurs de  2 . Le risque étant donné, on note 𝜒1−𝛼,𝜐 2 , le fractile d’ordre 1 – de la loi du ² de Pearson à νdegrés de liberté défini par 𝑃 𝜒 2 ≥ 𝜒1−𝛼,𝜐 2 = 𝛼. On note 𝜒𝑐 2 la valeur observée de  2 dans l’échantillon, et on compare cette valeur à 𝜒1−𝛼,𝜐 2 . Lorsque l’approximation par la loi du ² de Pearson à v degrés de liberté est valable, cette comparaison définit la règle de décision suivante : – Si 𝜒𝑐 2 < 𝜒1−𝛼,𝜈 2 : considère que l’écart est dû au hasard de l’échantillonnage et qu’il n’est pas significatif : on accepte l‟hypothèse d‟ajustement. – Si 𝜒𝑐 2 ≥ 𝜒1−𝛼,𝜈 2 : on considère que l’écart observé est trop important pour être attribué aux seules fluctuations d’échantillonnage et qu’il révèle l’inadéquation du modèle : on refuse l‟hypothèse d‟ajustement. 

Test d’Anderson-Darling

Le test d‟Anderson-Darling est une autre variante du test de Kolmogorov-Smirnov. Analogue dans sa philosophie, il donne plus d’importance aux queues de distribution et considère individuellement chaque élément de l‟échantillon étudié. Initialement, il s‟agissait d‟un test d‟adéquation à la loi Normale développé par T.W. Anderson et D. A. Darling en 1954 sur la base du test de Kolmogorov-Smirnov. Il a été ensuite repris et développé par Stephens dans les années 70 pour être appliqué à d‟autres lois de distribution de probabilité telles que : Lognormale, Exponentielle, Weibull et Gamma. Le fonctionnement est le même, simplement, il faudra alors changer la table des valeurs critiques. C‟est un test un peu plus laborieux à mettre en œuvre du moins manuellement mais il est beaucoup plus efficace.

Formation et coursTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *