Estimation paramétrique, estimation ponctuelle, estimateur convergent, risque quadratique, information de Fisher, théorème central-limite
On considère une expérience aléatoire ℰ = "Le fait d'aller voter".
On voudrait estimer le taux de participation p. On va pour cela interroger des gens qui vont former un échantillon (on fait un sondage de la population).
On prend la population (w1 , ..., wn ) avec n grand. On pose la question « allez-vous voter ? » à chacun de ses individus. Il y a deux réponses possibles : oui ou non.
On formalise les résultats en introduisant des variables aléatoires.
[...] ˆ θn est efficace si et seulement si : ˆ θn est sans biais pour θ (vérifié) 1 ˆ V(θn) = In(θ) Chapitre 8 Estimation paramétrique (ponctuelle) 81 Cherchons la log-vraisemblance vn(θ). vn(θ , x xn) = ln[ρn(x + . + ln[(xn , θx ln[ρ(x , = θ θx = θ) + = θ + ln(θx) = θ + x·ln(θ) Donc : vn(θ , x xn) = θ + x1·ln(θ) ln(x1!) + . + θ + xn·ln(θ) ln(xn!) = n·θ + ln(θ)·(x1 + . [...]
[...] Pour cela, nous allons utiliser la méthode d'estimation par maximum de vraisemblance. Dans la suite, si X (un n-échantillon est une variable aléatoire de loi ℒ(θ), on notera : si elle est discrète : x IP(X = = p(x , θ) si elle est continue : x ƒX(x) = ƒ(x , θ) On observe Xn). Les valeurs observées xn) sont réalisables, donc x1 X1( ) xn Xn( Si ℒ(θ) est discrète i = n : IP(Xi = xi) = p(xi , θ) > 0 Si ℒ(θ) continue i = n : ƒXi(xi) = p(xi , θ) > 0 Exemples : ℒ(θ) = ℬℯ Xi( ) = { xi = 0 ou xi = 1 ℒ(θ) = ℰ ƒX = 1 i exp θ si x > 0 0 si x 0 Soit Xn) un n-échantillon de loi ℒ(θ) où θ est un paramètre inconnu (θ Θ IR). [...]
[...] Donc, le modèle est régulier. On a donc : n 1 In(θ) = V vn(θ , x = V + (x1 + . + θ Rappel : V(a1·X1 + . + an·Xn) = + . + 1 1 In(θ) = + . + De plus, X1 ℰ . Xn ℰ E(X1) = 1 = θ et V(X1) = 1 = 1 θ E(Xn) = 1 = θ et V(Xn) = 1 = 1 θ In(θ) = 1 n + . [...]
[...] = V(Xn) = θ0·(1 θ0) ˆ V(θn) = 1 θ θ0) θ0)) = 0 n θ θ0) ˆ lim V(θn) = lim 0 n n n ˆ Les deux conditions du théorème sont vérifiées, donc θn est convergent pour θ0. Remarque : Le théorème précédent repose sur l'inégalité de Bienaymé-Tchebytcheff, qui s'énonce comme suit. Soit une variable aléatoire telle que = m et finie. Alors : ε > IP( X m > ε) II Estimateur efficace et fonction de vraisemblance Nous avons vu que l'on souhaitait obtenir des estimateurs avec des risques quadratiques ˆ ˆ ˆ associés minimums, c'est-à-dire que R(θn) = V(θn) + minimum. [...]
[...] Alors, un estimateur naturel de θ est la variance empirique. Soit Xn) un n-échantillon de loi ℒ(θ) telle que E(Xi) = m et V(Xi) = = θ. On appelle variance empirique associée à l'échantillon la variable : cas : m est connue, et la variable est alors Sn = n er i i=1 n n cas : m est inconnue, et la variable est alors 1 = n e X i n i=1 Propriétés : Supposons que ℒ(θ) soit telle que E(Xi) = m et V(Xi) = = θ. [...]
Source aux normes APA
Pour votre bibliographieLecture en ligne
avec notre liseuse dédiée !Contenu vérifié
par notre comité de lecture