Compléments sur les modèles linéaires

Compléments sur les modèles linéaires

Ce chapitre aborde plusieurs points relatifs àl’inférence statistique basée sur un modèle linéaire.Il traite des tests d’hypothèses sur les coefcients du modèle, de l’estimation du modèle linéaire par maximum de vraisemblance, de la multicolinéarité, de l’utilisation de variables indicatrices, des estimateursde variance robustes, de l’estimateur des moindres carrés généralisés, des modèles linéaires sur des données en coupe instantanée et de la méthode des variables instrumentales. . On souhaite tester un ensemble de restrictions linéaires portant chacune sur un ou plusieurs coefcients du vecteur b. et il suft de calculer la valeur de ce test et de la comparer aux valeurs critiques d’une table de la distribution de Ficher à m degrés de liberté au numérateur et n k degrés de liberté au dénominateur. Il s’agit d’un test de petit échantillon, donc d’un test exact quelle que soit la taille de l’échantillon, si le terme d’erreur est normal. C’est en fait une transformation monotone du test du rapport de vraisemblance des mêmes restrictions, mais ici la distribution est exacte puisqu’on a fait l’hypothèse que le terme d’erreur est normal.Il s’agit d’un test de Wald modié par une division par m, qui nécessite uniquement une estimation du modèle sans restrictions. On montre que la valeur obtenue est identique à celle du test calculé selon la formule de la section précédente pour les mêmes restrictions, et qui nécessite les estimations du modèle sans restrictions et avec restrictions.

On observe la réalisation du vecteur Y et celle de la matrice X. La fonction de vraisemblance de l’échantillon est donc f .u/. Il suft donc d’appliquer la formule habituelle permettant d’obtenir la fonction de densité d’une variable aléatoire, qui est fonction d’une autre variable aléatoire dont on connaît la densité. Puisque le Jacobien vaut 1, on obtient :1. Pour quelques rappels utiles sur l’estimation par la méthode du maximum de vraisemblance, le lecteur peut se référer par exemple au chapitre 5 du livre de Patrick Roger, Probabilités, statistique et processus stochastiques, publié chez Pearson Education France dans la même collection. L’estimateur de MCO de b, égal à l’estimateur de maximum de vraisemblance de b, a une matrice de variance et de covariance égale à la borne de Rao Cramer. Il est donc forcément le plus précis de tous les estimateurs sans biais. Il est en outre efcient. On remarque que O Test du rapport de vraisemblance. La fonction de vraisemblance fournit un test asymp- totique pratique et général pour tester simultanément plusieurs contraintes portant chacune sur un ou plusieurs coefcients du modèle linéaire. Le principe est d’estimer d’abord le modèle linéaire sans restrictions sur ses coefcients. La valeur de la fonction de vraisemblance maximisée de ce modèle est notée L suit asymptotiquement une loi Chi-2 à p degrés de liberté, où p est le nombre de restrictions testées sur les coefcients. On rejette les restrictions quand la valeur de ce test est supérieure aux valeurs critiques à un seuil de 5 % ou de 1 % d’une loi de Chi-2 à p degrés de liberté. En d’autres termes, c’est lorsque les restrictions provoquent une forte chute de la fonction de vraisemblance : L , ce qui rend la différence de leurs logarithmes trop grande. Le test du rapport de vraisemblance est asymptotique, c’est-à-dire qu’il suit une distribution de Chi-2 quand le nombre d’observations tend vers l’inni. Pour des échantillons réduits, sa distribution n’est qu’approximative ; des tests de petit échantillon peuvent être plus ables.

 

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *