Cours d'économétrie traitant des méthodes de sélection des modèles économétriques et des variables sous-jacentes. Ainsi, l'objectif est de pouvoir développer un modèle pour faire des prévisions sans qu'il ne soit important d'interpréter les effets des paramètres individuels.
[...] Le modèle de régression n'est qu'une approximation de la réalité. Certains auteurs trouvent que le BIC est quelquefois trop sévère (il choisit des modèles trop simples) pour les tailles d'échantillons finies. Le quant à lui ne pénalise pas assez et a tendance a choisir des modèles avec trop de variables. Suggestion : utiliser AIC et BIC. Si ces 2 critères ne choisissent pas le même modèle, trancher selon d'autres considérations. Note : le AIC est similaire à un autre critère appelé de Mallows (en fait les 2 critères sont équivalents lorsque la variance conditionnelle de =Var(Y X1, est connue). [...]
[...] Soit pmin la plus petite de ces p-values et supposons q'elle correspond à la variable Xj. Si pmin [...]
[...] Il n'y a pas contre pas de règle car cela dépend fortement des données elles-mêmes. - Division en 3 Si la taille d'échantillon est très grande nous pouvons diviser l'échantillon en 3 : - estimation train de taille n1 - validation de taille n2 - test de taille n3 Les 2 premières parties sont utilisées comme tout à l'heure et on garde l'échantillon test à part sans jamais l'utiliser. À la toute fin, une fois qu'on a choisi un modèle final. [...]
[...] Le problème est que l'on ne peut pas la calculer. Tout au plus peut-on essayer de l'estimer ou bien d'estimer une fonction qui, sans l'estimer directement, classifiera les modèles dans le même ordre qu'elle. Une première idée consiste simplement à l'estimer en utilisant l'erreur quadratique moyenne de notre échantillon : TMSE = . Malheureusement, cette quantité n'est pas un bon estimateur de GMSE car le TMSE a tendance a toujours diminuer lorsqu'on augmente la complexité du modèle (par exemple, lorsqu'on augmente le nombre de paramètres). [...]
[...] Les critères AIC et BIC peuvent être utilisés comme outils de sélection de variables en régression linéaire comme on le verra plus loin mais aussi pour plusieurs autres types de modèles (analyse factorielle, régression logistique etc En fait, ces 2 critères découlent de la méthode d'estimation basée sur le maximum de vraisemblance et les estimateurs OLS en régression linéaire peuvent être interprétés comme étant les estimateurs du maximum de vraisemblance en supposant que les termes d'erreurs sont de loi normale. Le critère BIC est le seul de ces 3 critères qui est convergent. Cela veut dire que si l'ensemble des modèles que l'on considère contient le vrai modèle, alors la probabilité que le critère BIC le choisisse tend vers 1 lorsque n tend vers l'infini. Il faut mettre cela en perspective. Il est peu vraisemblable que Y ait été généré exactement selon un modèle de régression linéaire. [...]
Source aux normes APA
Pour votre bibliographieLecture en ligne
avec notre liseuse dédiée !Contenu vérifié
par notre comité de lecture